Thứ Sáu, 17 tháng 7, 2015

Cấu hình Site của bạn có đúng với GoogleBot quốc tế?



Mỗi lúc một lần, sự thay đổi lớn thường xảy ra trong sự kiến tạo của SEO. Vào tháng Giêng, hình như không ai chú ý đến sự thay đổi, nhưng đã có một sự thay đổi trong nền tảng của thực tiễn SEO quốc tế tốt nhất khi Google cải thiện bằng cách cho Googlebot nhìn vào những thay đổi như thế nào về nội dung dựa trên vị trí (IP) hoặc cài đặt ngôn ngữ ưa thích của người dùng (Accept- Language HTTP header). Ngày càng có nhiều trang web đang lựa chọn để tự động thay đổi nội dung được trình bày cho khách hàng dựa vào quốc gia của họ hoặc ngôn ngữ.


Google thừa nhận có vấn đề về việc tìm kiếm và lập chỉ mục ngôn ngữ khác nhau và nội dung quốc tế theo cách này. Theo Search Console Help, Google có thể không thu thập thông tin, chỉ số hoặc xếp hạng nội dung quốc tế vì các địa chỉ IP mặc định của trình thu thập Googlebot có trụ sở tại Mỹ. Ngoài ra, thu thập thông tin sẽ gửi yêu cầu HTTP không cần thiết để yêu cầu trong Accept-Language

Bài viết này tiếp tục giải thích rằng Google đang thực hiện cả hai. Đối với SEO có khách hàng tạo ra nội dung không phải là tiếng Anh hoặc cho khán giả quốc tế, điều quan trọng là phải hiểu những thay đổi này và làm thế nào để kiểm tra cấu hình trang web để hiểu được cách ảnh hưởng của chúng đến kết quả tìm kiếm quốc tế.

Googlebot Crawling từ Non-U.S. Địa chỉ IP

Googlebot bắt đầu thu thập dữ liệu, không chỉ dựa trên thành phần IPs cơ bản của Mỹ, mà còn từ các IPs của các nước khác nhau. Căn cứ vào vị trí IP, điều này cho phép Google hiểu được rằng nếu nội dung cho một trang web thay đổi đặc biệt cho người dùng quốc tế và đánh giá phiên bản này là mới được phát hiện của trang web đó thì có thể thích hợp cho các kết quả tìm kiếm của quốc gia cụ thể.

Bạn có thể tưởng tượng, điều này cải thiện đáng kể trải nghiệm tìm kiếm cho người dùng quốc tế bằng cách đảm bảo các phiên bản của một trang web đã được trình bày trong các kết quả tìm kiếm.

Làm thế nào tôi có thể kiểm tra cấu hình trang web của tôi?

Nếu máy của bạn hoặc trang web của khách hàng của bạn tự động được phục vụ nội dung khác nhau dựa trên IP của người dùng, bạn có thể kiểm tra bằng cách sử dụng một dịch vụ proxy quốc tế. Hầu hết các crawlers - như Screaming Frog, nhìn thấy dưới đây - cho phép cấu hình proxy, mà sẽ giúp tự động hóa việc tìm kiếm các vấn đề ở quy mô SEO từ quan điểm của người dùng quốc tế.
 

Accept-Language Header

Càng nhiều trang web sử dụng Accept-Language Header để tự động thay đổi ngôn ngữ của một trang nhất định, locale-adaptive của Google được gửi đi. Bây giờ, khi Googlebot sẽ gửi một yêu cầu cho trang web của bạn, nó có thể chỉ định một ngôn ngữ ưa thích. Điều này là chính xác giống như cấu hình trình duyệt của bạn để thích hợp với ngôn ngữ nhất định, như đã thấy trong hình dưới đây.

Cau hinh Site cua ban co dung voi GoogleBot quoc te ​

Làm thế nào tôi có thể kiểm tra cấu hình trang web của tôi?

Với Local-Adaptive Pages Testing Tool, bạn có thể chỉ định ngôn ngữ bạn muốn để kiểm tra; xác định lên đến 10 URL; lựa chọn giữa Normal, Google, Bing user-agents, và Run.

Cau hinh Site cua ban co dung voi GoogleBot quoc te 2 ​

Như bạn có thể thấy trong các kết quả cho cloud.google.com, trong khi tất cả các nội dung được thay đổi tự động dựa trên Header Accept-Language, chỉ có Nhật Bản được cấu hình đúng cách.

Cau hinh Site cua ban co dung voi GoogleBot quoc te 3 ​

Kết luận

Trong khi sự thay đổi này có thể không có một tác động lớn về SEO tron hôm nay nhưng là sự phân chia và thay đổi thứ hạng đánh giá website rất lớn trong tương lai. Ngoài việc tự động thay đổi nội dung (Locale-Aware Crawling), Google vẫn thích sử dụng URL riêng biệt với các chú thích thích hợp cho nội dung khác nhau.

Cau hinh Site cua ban co dung voi GoogleBot quoc te 4 ​

Điều quan trọng là phải hiểu được những mâu thuẫn ở đây. Tại sao Google thích URL riêng biệt? Có thể là vì các trang web khác bắt đầu tự động thay đổi nội dung, khó hơn là để cho Google hiểu những nội dung tồn tại trên web là gì?

Các trang web khác phục vụ cho người sử dụng bằng cách thay đổi các nội dung tự động, càng Google đã tạo ra các cấu hình thu thập dữ liệu khác nhau để bắt chước, để hiểu được nội dung trình bày.

Lưu ý: GoogleBot là đó là những con “bọ tìm kiếm” đôi khi cũng được gọi là Spider (con nhện). Nhiệm vụ chính là Crawling (bò) để thu thập các thông tin, thu thập dữ liệu của các trang web. Mỗi mội Spider có một địa chỉ Ip riêng và thường xuyên thay đổi.

Không có nhận xét nào:

Đăng nhận xét