Bạn bỏ sót hoặc có file iRobot.txt bị lỗi, hoặc bạn đã sai lầm khi không chấp nhận các chương trình tư động tìm kiếm chỉ mục trang web hoặc trang được lựa chọn. Cũng có thể nó chỉ đơn giản là sitemap XML của bạn không được tham khảo trong Robot.txt file.
Bạn đã cập nhật trang của mình và quá trình đổi hướng URL 301 mới của bạn có lỗi. Sử dụng đổi hướng Java thay vì các đổi hướng 301 truyền thống có thể gây ra vấn đề đối với các chương trình tư động tìm kiếm. Một vấn đề khác nữa là việc thực hiện (khi hoàn thành kiểm tra một trang web) đổi hướng 301 hàng loạt đến một trang đơn lẻ trên một trang web mới.
Bạn có cũng thể gặp vấn đề kiểu mẫu đơn giản – URL của bạn không được đặt trong các Công cụ webmaster hoặc bạn không bổ sung các ưu tiên kiểu mẫu vào sitemap XML.
Bạn có thể có một sitemap XML chưa hoàn thiện hoặc bị lỗi ( chẳng hạn như các liên kết bị phá vỡ). Các sitemap XML nên có một liên kết tới tất cả các trang trên web của bạn.
Có một phần sitemap làm hỏng mục đích của lệnh sitemap XML.
Người lập trình của bạn gộp cả Noindex Meta tag trong code nguồn.
Trang web của bạn bị hack.
Web của bạn bị cho là spam theo quá trình phát hiện spam của Google vì những nội dung, các liên kết hay ý định chất vấn.
Bạn có thể mắc lỗi cấu hình các thông số URL trong các công cụ Webmaster của Google hay bạn không bổ sung và xác nhận tên miền mới vào tài khoản Webmaster của mình.
Nhà cung cấp dịch vụ Internet của bạn có vấn đề server down khi chương trình tư động tìm kiếm đã cố gắng ghé thăm web của bạn. Nếu điều này xảy ra một số lần thì chương trình tư động tìm kiếm giả định bạn nằm ngoài hoạt động. Điều đó cũng có thể bức tường lửa đang chặn chương trình tư động tìm kiếm.
Trang web của bạn gặp thách thức trong quá trình hoạt động, khiến mất quá nhiều thời gian để tải. Điều này có thể dẫn tới tình trạng time out (truy cập không thành công) hoặc công cụ tìm kiếm có thể xác định trang đó là chất lượng thấp, và không lập chỉ mục cho nội dung của bạn.
Web của bạn có vấn đề đối với các chương trình tự động tìm kiếm bởi vì các trang trong web được tạo ra ồ ạt, như vậy chương trình tự động tìm kiếm không thể phân tích được nội dung bởi các URL chứa quá nhiều thông số hoặc session ID. Tốt hơn hãy trình diện các trang HTML cho chương trình tự động tìm kiếm khi nó đang lập chỉ mục trang web của bạn.
Nội dung quan trọng của bạn được dùng mật khẩu để bảo vệ hoặc được giữ sau những form đăng ký.
Web của bạn có chất lượng coding và liên kết nghèo nàn. Điều này có thể xảy ra khi bạn không bận tâm đến việc tạo hiệu lực cho mã nguồn để xác nhận các liên kết bị phá vỡ và những tranh luận chưa ngã ngũ trước khi chính thức triển khai. Một lý do khác đó là sự hỗ trợ cho đầu trang If-Modified-Since HTTP bị bỏ quên từ quá trình code.
Các lý do không thường xuyên nhưng có thể xảy ra
Web của bạn đã vi phạm các hướng dẫn chất lượng của Google. Trường hợp này bao gồm việc áp dụng các thực hành SEO lừa bịp như đeo mặt nạ che đậy. Còn các vấn đề chất lượng khác bao gồm:
Trang chứa quá nhiều liên kết
Trang thiếu các văn bản miêu tả chi tiết rõ ràng (văn bản nghèo nàn)
Trang thiên về hình ảnh và không có các tên file mô tả đi kèm hay Alt Text
Web thiếu hệ thống cấp bậc rõ ràng
Web quên văn bản Tiêu đề/Mô tả chi tiết
Web có các trang “mồ côi” – không có các liên kết văn bản tĩnh đến các trang khác
Web mắc hơn 404 lỗi
Tất cả các lý do này nói lên tại sao các công cụ tìm kiếm không quyết định lập chỉ mục một trang hoặc làm hạ thứ hạng một web/trang trong hệ thống chỉ mục tìm kiếm của họ. Google biết hàng triệu các URL không được lập chỉ mục và có thể sẽ chẳng bao giờ thực hiện bởi vì các trang web đó đã bị phân loại vào spam, hoặc có nội dung chất lượng thấp. Google thực hiện lập chỉ mục các nội dung chất lượng cao và không quan tâm đến phân bổ nguồn cho các web được thực hiện code một cách nghèo nàn với nội dung ngoài lề.
Nguồn: Thế Giới Seo
Đăng nhận xét