SEO là gì? Vai trò của SEO trong online marketing
SEO) viết tắt của từ Search Engine Optimization là quá trình nâng cao thứ hạng của toàn website hoặc một trang của website trên công cụ tìm kiếm và nằm trong kết quả tìm kiếm tự nhiên. SEO có thể nhắm mục tiêu tìm kiếm bao gồm cả tìm kiếm hình ảnh , tìm kiếm địa phương , tìm kiếm video và tìm kiếm theo chiều dọc(vertical search).
Là một kênh tiếp thị Internet chiến
lược, SEO là cách xem xét cách vận hành của công cụ tìm kiếm và những gì
mọi người tìm kiếm. Tối ưu hóa một trang web có thể bao gồm chỉnh sửa
nội dung, HTML, phương thức lập trình để gia tăng sự liên quan của nó
đến từ khóa cụ thể và để loại bỏ các rào cản đối với các hoạt động lập
chỉ mục của công cụ tìm kiếm. Quảng bá một trang web để tăng số lượng
backlinks , hoặc liên kết Inbound, là một chiến thuật SEO khác.
Tối ưu hóa công cụ tìm kiếm SEO có thể
cung được cấp như một dịch vụ độc lập hoặc là một phần của một chiến
dịch tiếp thị rộng hơn. Để làm SEO hiệu quả có thể phải thay đổi mã
nguồn HTML của trang web nên SEO có thể được kết hợp từ lúc bắt đầu
thiết kế và phát triển trang web. Thuật ngữ “thân thiện với công cụ tìm
kiếm(friendly with search engine)” có thể được dùng để mô tả trong việc
thiết kế trang web, các menu chính, hệ thống quản lý nội dung , hình
ảnh, video, giỏ mua hàng , và các yếu tố khác đã được tối ưu hóa cho mục
đích giúp với công cụ tìm kiếm dễ dàng tiếp xúc với website.
Một loại kỹ thuật khác của SEO, được gọi
là SEO mũ đen hoặc spamdexing , sử dụng các phương pháp như link farm ,
nhồi từ khoá và copy nội dung làm suy giảm cả sự liên quan của kết quả
tìm kiếm và kinh nghiệm người dùng công cụ tìm kiếm. Công cụ tìm kiếm sẽ
loại bỏ các trang web có sử dụng các kỹ thuật này ra khỏi chỉ mục.
Lược sử
Webmaster và các nhà thiết kế bắt đầu
tối ưu hóa các trang web cho công cụ tìm kiếm vào giữa những năm 1990
khi đó các công cụ tìm chủ yếu là liệt kê các danh mục. Ban đầu, tất cả
các webmaster gửi địa chỉ của một trang, hoặc URL , đến các công cụ tìm
kiếm khác nhau, các công cụ tìm kiếm sẽ gửi một “con nhện” (web spider)
để thu thập thông tin của trang đó và trích xuất các liên kết đến các
trang khác từ nó, các thông tin sẽ được lưu và tìm thấy trên công cụ tìm
kiếm sau khi được lập chỉ mục . Quá trình liên quan bao gồm một spider
của công cụ tìm kiếm tải một trang web và lưu trữ nó trên máy chủ riêng
của công cụ tìm kiếm, kế tiếp một chương trình thứ hai được biết đến như
là một indexer , chiết xuất các thông tin về trang web, chẳng hạn như
những từ ngữ nó chứa, vị trí của các từ này, số lượng từ cụ thể, và tất
cả các liên kết có trong trang, sau đó hệ thống tự động sẽ thiết lập
thời gian để quay lại trang đó thu thập thêm các dữ liệu mới.
Chủ sở hữu trang web bắt đầu nhận thấy
giá trị của việc trang web của họ được xếp hạng cao trong kết quả công
cụ tìm kiếm, tạo ra một cơ hội cho cả hai “mũ trắng” và “mũ đen” hành
nghề SEO. Theo nhà phân tích ngành công nghiệp Danny Sullivan , cụm từ
“tối ưu hóa công cụ tìm kiếm” được đưa vào sử dụng vào năm 1997.
Những phiên bản đầu tiên của công cụ tìm
kiếm sử dụng các thuật toán mà chủ yếu dựa vào webmaster cung cấp thông
tin như các từ khoá của thẻ meta , hoặc tập tin chỉ mục trong các công
cụ như ALIWEB . Thẻ Meta cung cấp một tài liệu hướng dẫn cho từng nội
dung của trang. Dần dần thông tin dữ liệu các trang có trong chỉ mục
được tìm thấy ít đáng tin cậy hơn, vì webmaster dùng rất nhiều các từ
khóa trong thẻ meta và có nhiều từ khóa không thể hiện chính xác nội
dung của một trang được tìm thấy. Sự không chính xác, không đầy đủ, và
dữ liệu không nhất quán trong các thẻ meta và các trang đã gây ra xáo
trộn, tạo ra các trang có xếp hạng cao trong các máy tìm kiếm nhưng nội
dung không liên quan. Nội dung web cũng bị chế tác một số thuộc tính
trong mã nguồn HTML cố gắng để xếp hạng tốt trong công cụ tìm kiếm.
Bằng cách dựa quá nhiều vào các yếu tố
như mật độ từ khóa được độc quyền trong vòng kiểm soát của một
webmaster, công cụ tìm kiếm bắt đầu bị lạm dụng và thao tác xếp hạng. Để
cung cấp kết quả tốt hơn cho người sử dụng, công cụ tìm kiếm đã phải
thích ứng để đảm bảo các trang kết quả cho ra các kết quả tìm kiếm có
liên quan nhất, hơn là các trang không liên quan với nhiều từ khoá được
nhồi nhét bởi webmaster. Khi mà sự thành công và phổ biến của một công
cụ tìm kiếm được xác định bởi khả năng cho ra các kết quả có liên quan
nhất cho bất kỳ tìm kiếm nào, và việc cho ra những kết quả sai sẽ khiến
người dùng chuyển sang các nguồn tìm kiếm khác. Công cụ tìm kiếm phản
ứng bằng cách phát triển phức tạp hơn các thuật toán xếp hạng, có tính
đến các yếu tố bổ sung khác đã khó khăn hơn cho các webmaster trong việc
thao túng thứ hạng website.
Là sinh viên ở Đại học Stanford , Larry
Page và Sergey Brin đã phát triển “backrub”, một công cụ tìm kiếm dựa
trên thuật toán toán học để đánh giá độ nổi trội của các trang web. Số
lượng tính bằng thuật toán được gọi là PageRank , là một chức năng tính
số lượng và sức mạnh của các liên kết Inbound . PageRank ước lượng khả
năng một trang web nào đó có thể được xuất hiện người nhiên ngẫu trước
một người dùng khi lướt web, và cho phép các liên kết từ một trang này
đến trang khác được tìm thấy. Trong thực tế, điều này có nghĩa rằng một
số liên kết mạnh hơn những liên kết khác, cũng như là một trang PageRank
cao hơn sẽ có nhiều khả năng được người dùng tìm thấy cao hơn.
Page và Brin thành lập Google
vào năm 1998. Google đã thu hút một lượng lớn người dùng Internet ngày
càng tăng, những người thích thiết kế đơn giản của nó. Các yếu tố ngoài
trang “off page” (như PageRank và phân tích siêu liên kết) cũng như các
yếu tố trên trang “on page” (như tần xuất từ khóa, thẻ meta, tiêu đề,
liên kết và cấu trúc trang web) cho phép Google tránh những loại thao
tác thường thấy trong các công cụ tìm kiếm mà chỉ xem xét các yếu tố
trên trang cho thứ hạng của họ. Mặc dù PageRank là khó chơi hơn, các
webmater đã phát triển các công cụ liên kết và sự sắp đặt có hệ thống và
đã gây ảnh hưởng đến công cụ tìm kiếm Inktomi, và những phương pháp này
tỏ ra có thể áp dụng tương tự đối với PageRank. Nhiều trang web tập
trung vào việc trao đổi, mua và bán hàng ngàn liên kết thường xuyên trên
một quy mô lớn. Trong số này bao gồm việc lập ra một hệ thống website,
hoặc các trang trại liên kết , liên quan đến việc tạo ra hàng ngàn các
trang web cho mục đích duy nhất là liên kết rác .
Đến năm 2004, công cụ tìm kiếm đã kết
hợp một loạt các yếu tố không được tiết lộ trong các thuật toán xếp hạng
của mình để giảm tác động của các thao tác liên kết. Google cho biết họ
sử dụng hơn 200 tín hiệu khác nhau để xác định thứ hạng của một
website. Các công cụ tìm kiếm hàng đầu, Google và Yahoo , không tiết lộ
các thuật toán họ dùng để xếp hạng các trang. Những nhà cung cấp dịch vụ
SEO, như Rand Fishkin, Barry Schwartz , Aaron Wall và Jill Whalen , đã
nghiên cứu các cách tiếp cận khác nhau để tìm kiếm cách tối ưu hóa
website, và đã công bố ý kiến của mình trên nhiều diễn đàn và blog . Các
học viên SEO cũng có thể tham gia các khóa học đươc tổ chức bởi công cụ
tìm kiếm để đạt được cái nhìn sâu sắc trong các thuật toán.
Năm 2005, Google bắt đầu cá nhân hoá kết
quả tìm kiếm cho mỗi người dùng. Tùy thuộc vào lịch sử của họ tìm kiếm
trước đây, Google lưu lại kết quả cho người sử dụng đăng nhập tài
Google. Năm 2008, Bruce Clay nói rằng “xếp hạng là chết” vì tìm kiếm
được cá nhân hoá. Nó sẽ trở thành vô nghĩa để thảo luận làm thế nào một
trang web xếp hạng, bởi vì thứ hạng của nó có khả năng sẽ khác nhau cho
mỗi người dùng và mỗi tìm kiếm.
Trong năm 2007 Google đã công bố một
chiến dịch chống lại các liên kết trả tiền để tăng PageRank. Ngày 15
tháng sáu 2009, Google công bố rằng họ đã thực hiện các biện pháp để
giảm thiểu những ảnh hưởng của PageRank áp dụng bằng việc sử dụng thuộc
tính nofollow trên các liên kết. Matt Cutts , một kỹ sư phần mềm nổi
tiếng tại Google, thông báo rằng Google Bot sẽ không còn nhận định liên
kết nofollowed theo cùng một cách. Để đáp lại điều trên các nhà cung cấp
dịch vụ SEO đã nghĩ ra một thủ thuật khác nhằm thay thế nofollow tag
bằng obfuscated Javascript và cho phép PageRank được tính. Ngoài ra một
số giải pháp đã được đề xuất bao gồm việc sử dụng iframes , Flash và
Javascript.
Tháng 12 năm 2009 Google đã công bố sẽ
sử dụng lịch sử tìm kiếm web của mọi người sử dụng để cho ra kết quả tìm
kiếm. Tìm kiếm thời gian thực được giới thiệu vào cuối năm 2009 trong
một nỗ lực để làm cho kết quả tìm kiếm kịp thời và có liên quan. Với sự
phát triển của mạng xã hội
và blog, các công cụ tìm kiếm hàng đầu đã thay đổi thuật toán của họ để
cho phép nội dung mới được xếp hạng một cách nhanh chóng trong kết quả
tìm kiếm. Cách tiếp cận này tạo ra một tầm quan trọng đối trong việc tạo
ra nội dung mới và độc nhất.
Quan hệ với công cụ tìm kiếm
Năm 1997 công cụ tìm kiếm nhận ra rằng
webmaster đã nỗ lực để xếp hạng tốt trong công cụ tìm kiếm của họ, và
rằng một số webmaster đã cố thao tác để có được vị trí cao trong bảng
xếp hạng trong các kết quả tìm kiếm bằng cách nhồi nhét từ khoá quá
nhiều hoặc không liên quan. Công cụ tìm kiếm đầu tiên, chẳng hạn như
Infoseek , đã điều chỉnh các thuật toán của họ trong một nỗ lực để ngăn
chặn webmaster thao tác bảng xếp hạng.
Do giá trị tiếp thị cao của kết quả tìm
kiếm có tiềm năng cho một mối quan hệ đối đầu giữa các công cụ tìm kiếm
và nhà cung cấp dịch vụ SEO. Năm 2005 các công cụ tìm kiếm đã tổ chức
một hội nghị hàng năm tên AIRWeb, được tạo ra để thảo luận và giảm thiểu
các tác hại của việc đối đầu thông tin trên Web.
Công ty SEO có sử dụng kỹ thuật quá tích
cực có thể khiến trang web của khách hàng của mình bị chặn từ các kết
quả tìm kiếm. Năm 2005, Wall Street Journal đưa tin về một công ty tên
Traffic Power bị cáo buộc sử dụng các kỹ thuật có nguy cơ cao và không
tiết lộ những rủi ro cho khách hàng. Tờ tạp chí Wired đưa tin rằng công
ty trên đã kiện blogger và SEO Aaron Wall do viết về lệnh cấm này. Matt
Cutts tại Google sau đó xác nhận rằng Google đã chặn Traffic Power và
một số khách hàng của công ty.
Một số công cụ tìm kiếm cũng đã tìm đến
ngành công nghiệp SEO, vừa là nhà tài trợ thường xuyên vừa là khách hàng
tại các hội nghị, cuộc trò chuyện, và hội thảo về SEO. Trong thực tế,
với sự ra đời của quảng cáo trả tiền, một số công cụ tìm kiếm hiện nay
có quyền lợi trong việc duy trì cộng đồng SEO tốt. Các công cụ tìm kiếm
cung cấp thông tin và hướng dẫn để giúp tối ưu hóa trang web. Google có
Sitemaps để giúp các quản trị web tìm hiểu nếu Google có bất kỳ vấn đề
gì trong việc lập chỉ mục trang web của họ và cũng cung cấp dữ liệu cho
Google, ví dụ như: lưu lượng truy cập đến trang web. Google guidelines
là một danh sách hướng dẫn thực hành SEO cơ bản cho webmaster. Yahoo!
Site Explorer cung cấp một cách để quản trị web để gửi URL, xác định
được bao nhiêu trang lưu trữ trong Yahoo.! Thông tin về link liên kết.
Phương pháp
Lập chỉ mục
Các công cụ tìm kiếm hàng đầu như
Google, Bing và Yahoo!, sử dụng Crawler để tìm các trang web cho kết quả
tìm kiếm bằng thuật toán của họ. Các trang được liên kết từ các công cụ
tìm kiếm khác được lập chỉ mục một cách tự động. Một số công cụ tìm
kiếm, đáng chú ý là Yahoo!, đảm bảo thu thập và lập chỉ mục trang web
cho cả tìm kiếm có trả tiền (như quảng cáo Google Adwords)
hoặc tìm kiếm tụ nhiên. Những chương trình này thường đảm bảo đưa vào
cơ sở dữ liệu, nhưng không đảm bảo xếp hạng cụ thể trong kết quả tìm
kiếm. Yahoo có hai thư mục lớn, Directory Yahoo và Open Directory
Project cả hai yêu cầu hướng dẫn sử dụng và xem xét biên tập của con
người. Google cung cấp Google Webmaster Tools , Sơ đồ trang web XML dữ
liệu có thể được tạo ra và gửi miễn phí đảm bảo rằng tất cả các trang
được tìm thấy, đặc biệt là các trang không thể phát hiện bằng cách tự
động tìm liên kết.Crawlers của công cụ tìm kiếm có thể xem xét một số
yếu tố khác nhau khi thu thập một trang web. Không phải mọi trang đều
được lập chỉ mục. Khoảng cách của các trang web từ thư mục gốc của một
trang web cũng có thể là một yếu tố để các trang có hoặc không được thu
thập thông tin.
Ngăn chặn thu thập thông tin
Để tránh nội dung không mong muốn có
trong danh mục tìm kiếm, quản trị web có thể hướng dẫn nhện không thu
thập dữ liệu một số tập tin hoặc thư mục thông qua các tiêu chuẩn
robots.txt trong thư mục gốc của tên miền. Ngoài ra, một trang có thể
được loại trừ khỏi công cụ tìm kiếm từ cơ sở dữ liệu bằng cách sử dụng
một thẻ meta cụ thể cho robot tìm kiếm. Khi một công cụ tìm kiếm thăm
một trang web, các robots.txt nằm trong thư mục gốc là file đầu tiên
được thu thập thông tin. Các tập tin robots.txt sau đó được phân tích cú
pháp, và nó sẽ hướng dẫn các robot tìm kiếm trang nào không được thu
thập thông tin. Công cụ tìm kiếm có thể giữ một bản sao cache của tập
tin trên web, đôi khi nó thu thập dữ liệu một trang nào đó mà webmaster
không muốn được thu thập thông tin. Các trang thường ngăn cản được thu
thập thông tin bao gồm các trang đăng nhập, giỏ mua hàng và nội dung như
kết quả tìm kiếm từ các tìm kiếm nội bộ. Trong tháng ba năm 2007,
Google cảnh báo webmaster rằng họ cần ngăn lập chỉ mục kết quả tìm kiếm
nội bộ bởi vì các trang tìm kiếm nội bộ được coi là rác.
Tăng nổi tiếng
Một loạt các phương pháp có thể làm tăng
sự nổi bật của trang web trong kết quả tìm kiếm. liên kết chéo giữa các
trang trong cùng một trang web để cung cấp thêm các liên kết đến các
trang quan trọng nhất có thể cải thiện khả năng của nó. Viết nội dung
bao gồm từ khoá tìm kiếm cụm từ thường xuyên, có liên quan đến một loạt
các truy vấn tìm kiếm như vậy sẽ có xu hướng gia tăng lưu lượng truy
cập. Thêm từ khóa liên quan đến trang meta của dữ liệu web, bao gồm các
thẻ tiêu đề và thẻ mô tả sẽ có xu hướng cải thiện sự liên quan của của
danh sách tìm kiếm một trang web, do đó tăng lượng truy cập của các
trang web. Sử dụng ” canonical” meta hoặc chuyển hướng 301 có thể giúp
tạo liên kết từ các phiên bản khác nhau, tất cả các url hướng đến trang
phổ biến nhất.
Mũ trắng và mũ đen
Các kỹ thuật SEO được phân thành hai
loại lớn: kỹ thuật mà công cụ tìm kiếm đề nghị như một phần của thiết kế
tốt, và những kỹ thuật mà công cụ tìm kiếm không phê duyệt và cố gắng
để giảm thiểu tác động của việc bị xem là spamdexing . Một số nhà bình
luận công nghiệp phân loại các phương pháp này, và những người sử dụng
chúng là một trong hai SEO mũ trắng hay SEO mũ đen. Mũ trắng có xu hướng
tạo ra kết quả trong thời gian dài, trong khi mũ màu đen dự đoán rằng
trang web của họ cuối cùng sẽ bị chặn một khi các công cụ tìm kiếm phát
hiện ra những gì họ đang làm.
Kỹ thuật SEO minh bạch hay phương pháp
được xem là mũ trắng nếu nó phù hợp với hướng dẫn các công cụ tìm kiếm
‘và không có liên quan đến việc lừa dối. Các hướng dẫn của công cụ tìm
kiếm không phải là một loạt các qui tắc hay mệnh lệnh, đây là một khác
biệt quan trọng cần lưu ý. SEO mũ trắng không chỉ là làm theo hướng dẫn,
mà nhằm đảm bảo rằng nội dung được lập chỉ mục sẽ là nội dung mà người
tìm kiếm sẽ nhìn thấy khi vào website.
Mũ trắng nói chung tạo nội dung cho
người dùng, không phải cho công cụ tìm kiếm, và sau đó làm cho nội dung
dễ dàng truy cập đến nhện web hơn là cố gắng để trò chơi thuật toán. SEO
mũ trắng là theo nhiều cách tương tự như phát triển web nhằm thúc đẩy
khả năng tiếp cận, mặc dù hai bên không giống nhau.
SEO mũ trắng chính là hiệu quả tiếp thị,
những nỗ lực để cung cấp chất lượng nội dung cho một đối tượng nào đó
đã yêu cầu các nội dung có chất lượng.
Black hat SEO nỗ lực để nâng cao thứ
hạng bằng cách không được chấp thuận của các công cụ tìm kiếm, hoặc liên
quan đến việc lừa dối. Một kỹ thuật mũ đen sử dụng văn bản được ẩn,
hoặc là văn bản có màu tương tự như nền, trong một ẩn div, hoặc vị trí
xa khỏi màn hình. Một phương pháp khác là cho một trang khác nhau tuỳ
thuộc vào việc trang đang được yêu cầu của một người con người hoặc một
công cụ tìm kiếm, một kỹ thuật được gọi là che đậy(cloaking) .
Công cụ tìm kiếm có chặn trang web khi phát hiện ra các trang web sử dụng phương pháp mũ đen, bằng cách giảm thứ hạng hoặc loại trừ ra khỏi cơ sở dữ liệu của họ hoàn toàn. Hình phạt như vậy có thể được áp dụng bằng thuật toán tự động của công cụ tìm kiếm, hoặc bằng cách xem xét lại trang web bằng tay. Một ví dụ nổi tiếng là tháng 2 năm 2006 Google loại bỏ cả hai website: BMW Đức và Ricoh Đức sử dụng các hành vi lừa đảo. Cả hai công ty nhanh chóng xin lỗi, cố định các trang web vi phạm, và đã được khôi phục vào danh sách của Google.
Công cụ tìm kiếm có chặn trang web khi phát hiện ra các trang web sử dụng phương pháp mũ đen, bằng cách giảm thứ hạng hoặc loại trừ ra khỏi cơ sở dữ liệu của họ hoàn toàn. Hình phạt như vậy có thể được áp dụng bằng thuật toán tự động của công cụ tìm kiếm, hoặc bằng cách xem xét lại trang web bằng tay. Một ví dụ nổi tiếng là tháng 2 năm 2006 Google loại bỏ cả hai website: BMW Đức và Ricoh Đức sử dụng các hành vi lừa đảo. Cả hai công ty nhanh chóng xin lỗi, cố định các trang web vi phạm, và đã được khôi phục vào danh sách của Google.
Là một sách lược tiếp thị
SEO không nhất thiết phải là một chiến
lược thích hợp cho mọi trang web. Chiến lược tiếp thị Internet khác có
thể mang lại hiệu quả hơn nhiều, tùy thuộc vào của mục tiêu của chủ nhân
trang web. Một chiến dịch tiếp thị Internet thành công mang lại lưu
lượng truy cập lớn thông qua các kỹ thuật tối ưu hóa và không phải trả
tiền quảng cáo, nhưng nó cũng có thể bao gồm việc sử dụng các quảng cáo
trả tiền trên công cụ tìm kiếm và các trang khác. Xây dựng các trang web
chất lượng cao giúp mang lại sự tương tác cao với người dùng và có thể
giữ cho công cụ tìm kiếm luôn lập chỉ mục các trang web. Cài đặt chương
trình Analytics giúp chủ sở hữu trang web đo lường sự thành công của họ,
và cải thiện tỷ lệ chuyển đổi khách hàng của trang web .
SEO có thể tạo ra một lợi tức đầu tư.
Tuy nhiên, công cụ tìm kiếm luôn thay đổi thuật toán của họ, và không có
gì bảo đảm điều này không gây bất lợi cho chủ nhân trang web. (Một số
trang web mua bán như eBay có thể là một trường hợp đặc biệt cho việc
này, Ebay có thể thông báo khi các thuật toán xếp hạng sẽ thay đổi một
vài tháng trước khi thay đổi thuật toán). Do sự thiếu đảm bảo và thiếu
chắc chắn, một doanh nghiệp mà chủ yếu dựa vào công cụ tìm kiếm thì lưu
lượng truy cập có thể bị tổn thất lớn nếu các công cụ tìm kiếm dừng gửi
khách truy cập. Các công ty kinh doanh dựa chủ yếu vào website cần nên
giải phóng mình khỏi sự phụ thuộc vào công cụ tìm kiếm. Seomoz.org một
công ty hàng đầu thế giới về SEO đã đề nghị, “tiếp thị tìm kiếm, chỉ là
một phần phần rất nhỏ của lưu lượng truy cập của từ các công cụ tìm kiếm
..” Thay vào đó, nguồn chính của họ là các liên kết từ các website
khác.
Thị trường quốc tế
Thị phần của các công cụ tìm kiếm thay
đổi theo từng thị trường, cũng như sự cạnh tranh. Năm 2003, Danny
Sullivan nói rằng Google đại diện cho khoảng 75% của tất cả các công cụ
tìm kiếm. Trên các thị trường bên ngoài nước Mỹ thị phần của Google
thường lớn hơn, và Google vẫn là công cụ tìm kiếm có sự chi phối lớn
nhất của năm 2007. Năm 2006 , Google đã có một thị phần 85-90% ở Đức.
Trong khi có hàng trăm các công ty SEO ở Mỹ tại thời điểm đó, chỉ có
khoảng năm ở Đức. Tháng 6 năm 2008, thị phần của Google tại Vương quốc
Anh đã được gần 90% theo tạp chí Hitwise . Đó là thông số thị phần ở một
số quốc gia.
Tính đến năm 2011, chỉ có một vài thị
trường lớn mà Google không phải là công cụ tìm kiếm hàng đầu. Trong hầu
hết trường hợp, khi Google không phải là hàng đầu trong một thị trường
nhất định, đó là do tụt hậu so với các đối thủ địa phương. Đáng chú ý
nhất là những thị trường như: Trung Quốc, Nhật Bản, Hàn Quốc, Nga và
Cộng hòa Séc, nơi tương với các công cụ tìm kiếm Baidu , Yahoo! Nhật Bản
, Naver , Yandex và Seznam là dẫn đầu thị trường.
Để thành công trong việc tối ưu hóa cho
các thị trường quốc tế cần có dịch thuật chuyên nghiệp cho các trang
web, đăng ký một tên miền hàng đầu trong thị trường mục tiêu, và máy chủ
web cung cấp một địa chỉ IP địa phương . Còn lại các yếu tố cơ bản của
tối ưu hóa tìm kiếm cơ bản là giống nhau, bất kể ngôn ngữ.
Tiền lệ pháp lý
Ngày 17 Tháng Mười 2002, SearchKing nộp
đơn kiện tại tòa án quận Western District of Oklahoma Hoa Kỳ, chống công
cụ tìm kiếm Google. Lý do SearchKing yêu cầu bồi thường là chiến thuật
của Google để ngăn chặn spamdexing tạo ra sự gây nhiễu có hại trong quan
hệ hợp đồng của họ. Ngày 27 tháng 5 2003, tòa án cấp quận đã bác bỏ
những khiếu nại vì SearchKing “đã không thể đưa ra các giải trình có cơ
sở trong việc đòi bồi thường”.
Trong tháng 3 năm 2006, KinderStart đệ đơn kiện chống lại Google trên bảng xếp hạng công cụ tìm kiếm. Trang web của Kinderstart đã được gỡ bỏ từ chỉ mục của Google trước khi vụ kiện và số lưu lượng truy cập đến trang web đã bị giảm tới 70%. Ngày 16 tháng 3 năm 2007 của tòa án phía bắc của California ( San Jose Division) bác bỏ đơn khiếu nại KinderStart, và xử phạt luật sư của KinderStart, buộc ông này phải trả một phần chi phí của vụ kiện.
Trong tháng 3 năm 2006, KinderStart đệ đơn kiện chống lại Google trên bảng xếp hạng công cụ tìm kiếm. Trang web của Kinderstart đã được gỡ bỏ từ chỉ mục của Google trước khi vụ kiện và số lưu lượng truy cập đến trang web đã bị giảm tới 70%. Ngày 16 tháng 3 năm 2007 của tòa án phía bắc của California ( San Jose Division) bác bỏ đơn khiếu nại KinderStart, và xử phạt luật sư của KinderStart, buộc ông này phải trả một phần chi phí của vụ kiện.
Tối ưu hóa công cụ tìm kiếm (Xem click here)
Bách khoa toàn thư mở Wikipedia
(đổi hướng từ SEO)
Đừng nhầm lẫn với CEO.
Tối ưu hóa công cụ tìm kiếm, tiếng Anh: Search Engine Optimization, viết tắt: SEO, là một tập hợp các phương pháp nhằm nâng cao thứ hạng của một website trong các trang kết quả của các công cụ tìm kiếm (phổ biến nhất là Google).[1] Các phương pháp đó bao gồm việc tối ưu hóa website ( tác động mã nguồn HTML và nội dung website) và xây dựng các liên kết đến trang để các công cụ tìm kiếm chọn lựa trang web phù hợp nhất phục vụ người tìm kiếm trên Internet ứng với một từ khóa cụ thể được người dùng truy vấn.Mục lục |
Các ưu điểm
SEO mang lại một số ưu điểm: [2][3]- SEO mang lại lợi nhuận.
- SEO giúp thu hút lượng lớn khách hàng mục tiêu có quan tâm trực tiếp đến sản phẩm, dịch vụ kinh doanh của công ty. Vì vậy mang lại doanh thu.
- Tiết kiệm chi phí truyền thông khác.
- Chi phí dành cho SEO không lớn.
- Giúp doanh nghiệp mở rộng thị trường, đối tượng khách hàng, thậm chí đa dạng hóa sản phẩm một cách dễ dàng.
- SEO nâng cao thương hiệu của doanh nghiệp.
- Xuất hiện nhiều trên kết quả tìm kiếm khiến doanh nghiệp của bạn dễ dàng được biết đến.
- Xuất hiện ở những vị trí cao hàm ý doanh nghiệp của bạn hoạt động lâu năm và là website đáng tin cậy.
Các lĩnh vực SEO
Trước hết cần khẳng định, làm SEO mang nhiều yếu tố về mặt kỹ thuật, sẽ rất khó nếu không hiểu về việc xây dựng website. SEO có thể chia làm 2 mảng chính:- Seo Onpage: tối ưu thiết kế và nội dung website.
- Seo Offpage: xây dựng liên kết từ website khác trỏ tới website của bạn.
Phương pháp tối ưu hóa
Google, Yahoo hay Bing là các bộ máy tìm kiếm vì thế nó xây dựng các tiêu chuẩn để đánh giá, xếp hạng website. Một website càng đáp ứng được nhiều các tiêu chuẩn của máy tìm kiếm thì càng được đánh giá tốt, cơ hội lên trên TOP sẽ cao hơn. Hiện nay, có một số cách thức quan trọng sau để thực hiện SEO: [4]- Title - Tiêu đề trang: khai báo thẻ Page Title của website ngắn gọn, súc tích, duy nhất trong từng webpage. Các máy tìm kiếm đánh giá rất cao thẻ Page Title do nó là những gì xúc tích, hàm chứa nhất của website.
- Description- Thẻ mô tả: Nó giống như một đoạn tóm tắt nội dung của website. Khi khai báo Description cũng phải viết ngắn gọn, xúc tích. Desciption thông thường là đoạn text màu đen hiện ra bên trên đường link, bên dưới tiêu đề trang trong phần kết quả tìm kiếm.
- URL: Xây dựng một URL tĩnh - hay URL thân thiện với người dùng và máy tìm kiếm. Trong URL thân thiện không nên có các ký tự đặc biệt (%, $, ~, ...) mà phải giống như đường dẫn thư mục trong window. Việc này làm các công cụ tìm kiếm dễ dàng hơn trong việc tìm và thu thập nội dung trong website.
- Xây dựng Backlink: Là việc trao đổi liên kết, xây dựng liên kết tới các website khác. Việc trao đổi này dựa trên trao đổi với các website có cùng nội dung chủ đề và chất lượng tốt thì sẽ có hiệu quả cao hơn.
- Với SEO nội dung là điều kiện quan trọng nhất để SEO một website. Nội dung của website phải hữu ích với độc giả. Máy tìm kiếm sinh ra là để phục vụ mọi người tìm kiếm thông tin trên Internet. Những Website có được nội dung phong phú, hữu ích và thông tin luôn cập nhật sẽ luôn nằm ở vị trí TOP đầu.
Tham khảo
- ^ “Search Engine Optimization (SEO)”. Google.
- ^ “SEO Benefits”.
- ^ “The secret benefit of search engine optimisation: Increased usability”. webcredible.
- ^ “Back-to-school SEO”. Cnet.
Liên kết ngoài
Wikimedia Commons có thêm thể loại hình ảnh và tài liệu về: Tối ưu hóa công cụ tìm kiếm. |
- Our Search: Google Technology
- Bing Overview
- Google: Company Overview
- Yahoo! Search Content Quality Guidelines. help.yahoo.com. Retrieved on - Tài liệu nâng cao nội dung trang web để phù hợp máy tìm kiếm yahoo
- Google Webmaster Tools. google.com. Retrieved on 2007-05-09. - Công cụ quản trị trang website giúp người quản trị có được thông tin và định hướng làm web & SEO
- Google Analytics Công cụ hỗ trợ thống kê truy cập, phân tích website miễn phí của Google
- "The Dirty Little Secrets of Search," article in The New York Times (February 12, 2011)
Không có nhận xét nào:
Đăng nhận xét