Quá trình hình thành và phát triển Nghề SEO

Mặc dù Nghề SEO không còn xa lạ với mọi người nhưng tôi tin chắc ít người biết về Quá trình hình thành và phát triển Nghề SEO. Vì vậy tôi xin phép được  tổng hợp và chia sẻ lại bài viết này.
Tại Việt Nam thì nghề SEO bắt đầu nở rộ từ năm 2005 nhưng chỉ phổ biến ở các thành phố lớn như Hà Nội, TP.Hồ Chí Minh đến nay thì các tỉnh lẻ cũng đã bắt đầu phát triển.
Quá trình hình thành và phát triển Nghề SEO


Đầu tiên các bạn cần biết về lịch sử phát triển của các công cụ tìm kiếm(SEO)


Webmaster và các nhà cung cấp nội dung đã bắt đầu tối ưu hóa các trang web cho công cụ tìm kiếm vào giữa những năm 1990.

Ban đầu, các webmaster bắt đầu gửi link liên kết hay url của trang web đến các công cụ tìm kiếm, các công cụ này sẽ gửi một spider ” nhện mạng ” đến trang website đó website sẽ được thu thập dữ liệu, sau đó được index lên máy chủ tìm kiếm, nơi đây các thông tin về website sẽ được lưu trữ lại, các công cụ tìm kiếm website, các link liên kết trong website đó, các spider này sẽ làm việc index lên máy chủ theo lịch trình mà các công cụ tìm kiếm quy ước.
Nhện mạng và Robots
Hình ảnh: Nhện mạng và Robots

Người sở hữu trang web bắt đầu để nhận ra những giá trị của việc có các trang web của họ và có thể nhìn thấy được xếp hạng cao trong kết quả công cụ tìm kiếm, và tạo ra các cơ hội cho SEO, và được chia ra làm hai dạng, SEO truyền thống và SEO gian lận. Theo nhà phân tích Danny Sullivan, cụm từ “Tối ưu hóa công cụ tìm kiếm” sử dụng rất nhiều trên mạng vào năm 1997.

Đầu phiên bản của thuật toán tìm kiếm dựa vào quản trị trang web cung cấp thông tin như các thẻ meta từ khoá, hoặc tập tin chỉ mục như ALIWEB. Thẻ meta cung cấp một hướng dẫn đến nội dung của mỗi trang.

Sử dụng dữ liệu meta vào các trang chỉ mục được tìm thấy sẽ được ít hơn đáng tin cậy, tuy nhiên, vì những sự lựa chọn của webmaster mà các thẻ meta có sự chính xác trong khả năng updata website lên mà chủ tìm kiếm .Những dữ liệu không chính xác, không đầy đủ, và không nhất quán trong thẻ meta có thể gây ra sự xếp hạng không đúng vị trí cho các tìm kiếm không liên quan. Việc cung cấp nội dung được tối ưu hóa và một số thuộc tính trong mã nguồn HTML đối với một trang web cần phải chính xác để có được kết quả tốt trên công cụ tìm kiếm.

Bằng cách dựa quá nhiều vào các yếu tố như mật độ từ khóa đó được độc quyền trong vòng kiểm soát của một webmaster, công cụ tìm kiếm sớm bị lạm dụng vào thao tác xếp hạng. Để cung cấp kết quả tốt hơn cho người dùng của họ, công cụ tìm kiếm đã phải thích ứng để đảm bảo kết quả của các trang đã cho thấy các kết quả tìm kiếm có liên quan nhất, thay vì các trang không liên quan nhồi với từ khóa nhiều bởi webmaster vô đạo đức. Các công cụ tìm kiếm đã phản ứng lại bằng cách phát triển phức tạp hơn thuật toán xếp hạng, có tính đến các yếu tố bổ sung mà gây nhiều khó khăn cho quản trị web để thao tác.

Sinh viên ở Đại học Stanford, , Larry Page và Sergey Brin, đã phát triển “backrub,” một công cụ tìm kiếm dựa trên một thuật toán toán học để đánh giá sự nổi tiếng của các trang web. Và đã cho ra đời thuật toán PageRank , PageRank là một thuật toán đánh giá khả năng liên kết sâu và rộng của website đó .Thuật toán PageRank ước tính khả năng của một trang nhất định qua yếu tố người sử dụng web vào xem website và số người ngẫu nhiên vào website và các liên kết từ website đó đến các website khác và ngược lại .Như vậy , PageRank được xác định yếu tố ngẫu nhiên truy cập cho người dùng cao hơn . Thực tế thì lại khác , Pagerank hiện nay chỉ là một yếu tố xác định thứ hạng trên công cụ tìm kiếm thông qua mức độ phổ biến liên kết và số người dùng ngẫu nhiên truy cập.

Page và Brin thành lập Google vào năm 1998. Google ngày càng thu hút người dùng tìm kiếm và sử dụng ngày càng tăng do có nhiều người thích tính thiết kế website đơn giản của google.Các yếu tố trang web như PageRank và phân tích siêu liên kết được coi là những yếu tố quan trọng (như tần số từ khóa, thẻ meta, tiêu đề , liên kết và cấu trúc trang web) để cho phép website xuất hiện trên các công cụ tìm kiếm. Nhiều trang web bắt đầu tập trung vào việc trao đổi, mua, bán và các liên kết, hay hơn hết là việc spam liên kết website, thường được xây dựng trên quy mô lớn để đạt được thứ hạng cao trên công cụ tìm kiếm google.
Page và Brin thành lập Google
Hình ảnh: Page và Brin những người thành lập Google
Đến năm 2004, công cụ tìm kiếm google đã kết hợp một loạt các yếu tố không tiết lộ trong các thuật toán xếp hạng của họ để giảm tác động của các thao tác liên kết. Google nói : các thuật toán đuợc sử dụng hơn 200 cách khác nhau để xác định thứ hạng website trên công cụ tìm kiếm để giảm thiểu các thủ thuật can thiệp thứ hạng google . Đáng chú ý như Rand Fishkin, Barry Schwartz , Aaron Wall and Jill Whalen, đã nghiên cứu các phương pháp khác nhau để tối ưu hóa công cụ tìm kiếm, và đã công bố ý kiến của mình tại các diễn đàn trực tuyến và website trao đổi về SEO , cùng nhìn nhận về sự quan trọng của website trên công cụ tìm kiếm..

Năm 2005, Google bắt đầu cá nhân hóa những kết quả tìm kiếm cho mỗi người dùng. Tùy thuộc vào lịch sử của họ về tìm kiếm trước đây, Google crafted ghi nhận kết của tìm kiếm của người dùng .Năm 2008, Bruce Clay nói rằng “xếp hạng là chết” vì tìm kiếm được cá nhân hoá. Nó sẽ trở thành vô nghĩa như thế nào khi mỗi người chỉ thấy mỗi kết quả khác nhau và độc lập .

Năm 2007, Google công bố một chiến dịch chống lại các liên kết trả tiền ( chuyển PageRank ) .Ngày 15 tháng 6 năm 2009, Google tiết lộ rằng họ đã thực hiện các biện pháp để giảm thiểu những tác động của PageRank do sử dụng các thuộc tính nofollow trên các liên kết .Matt Cutts, Một phần mềm nổi tiếng kỹ sư tại Google, tuyên bố rằng Google Bot sẽ không theo các liên kết có thẻ ” nofollow ” để ngăn chặn việc sử dụng liên kết bừa bãi hay liên kết các website không tương thích , tránh cho việc thất thoát thứ hạng và đánh giá SEO. Để tránh việc thất thoát ranking ở trên,Các nhà phát triển web nên tránh sử dụng Javascript để giảm thất thoát thứ hạng và thẻ ” nofollow ” để nâng tầm quan trọng page rank lên . Ngoài ra một số giải pháp đã được đề xuất bao gồm việc sử dụng iframes , Flash và Javascript vẫn nên hạn chế.

Trong tháng 12 năm 2009 của Google tuyên bố sẽ được sử dụng lịch sử tìm kiếm web của tất cả người dùng của mình để xếp hạng kết quả tìm kiếm

Tìm kiếm theo thời gian thực được giới thiệu vào cuối năm 2009 trong một nỗ lực để làm cho kết quả tìm kiếm kịp thời và có liên quan.Với sự phát triển của các công nghệ truyền thông , kết quả tìm kiếm thời gian thực giúp cho website hiện thị nhanh chóng trên công cụ tìm kiếm một cách nhanh chóng , giúp người tìm kiếm nắm bắt hiện tại thông tin trong môi trường siêu thông tin.

Và từ đây Nghề SEO đã được hình thành và phát triển như ngày nay.
Nguồn Tổng hợp từ Internet
Nguyễn Diện