Cập nhật thuật toán, nội dung trùng lặp và khôi phục

Boulder-in-StreetGiống như nhiều người trong việc tối ưu hóa công cụ tìm kiếm, tôi xem các bản cập nhật thuật toán lớn hoặc “tảng đá” lăn xuống đồi từ Googleplex và xem ai bị chúng tôi thổi bay. Đối với những người trong chúng ta, những người đang bị đè bẹp, chúng ta lại đứng lên, phủi bụi và cố gắng đánh giá xem tại sao chúng ta lại là số ít những người không may mắn bị vượt qua. Chúng tôi đang chờ đợi câu trả lời mơ hồ từ Google hoặc thông tin chi tiết từ cộng đồng SEO.

Panda đã dạy chúng tôi rằng “nội dung chất lượng” là điều tối quan trọng, và ngay cả khi bạn đang ở trên các trang web rõ ràng liên kết với bạn, nó có thể đã bị giảm giá trị, làm suy yếu quyền hạn tổng thể của bạn. Nhận thức chung của tôi về bản cập nhật Penguin là nó chủ yếu nhằm mục đích nhắm mục tiêu các phương pháp liên kết không tự nhiên và kỹ thuật gửi spam web, cũng như nhiều chủ đề ít tập trung hơn như sử dụng AdSense và hàng đợi liên kết nội bộ.

Nội dung trùng lặp đã được đề cập ở đây như một phần của việc tuân thủ các nguyên tắc về chất lượng của Google, nhưng quan sát chung của tôi là nó không được nhiều người đề cập đến như một yếu tố quan trọng trong việc cập nhật.

Giai đoạn gãi đầu

Sau bản cập nhật Penguin vào cuối tháng 4 năm 2012, tôi nhanh chóng nhận thấy rằng một trong những lưu lượng truy cập của khách hàng của tôi bắt đầu giảm dần thứ hạng và lưu lượng truy cập. Lúc đầu, nó không có vẻ giống như một cú hích qua đêm từ Google, mà là sự sụt giảm giới thiệu chậm.

Tôi sớm bắt đầu danh sách kiểm tra sau chim cánh cụt của mình và nhận thấy rằng không có bất kỳ chủ đề lớn nào về chim cánh cụt có tác động tiêu cực đến phía khách hàng. Điều này cuối cùng khiến tôi phải chú ý đến chất lượng nội dung.

Tôi đã kiểm tra nội dung của các phần bị ảnh hưởng của trang web. Nó trông đẹp, nhiều thông tin, không chứa đầy từ khóa và đáp ứng các nguyên tắc về chất lượng của Google. Ít nhất đó là những gì tôi nghĩ.

Tìm kiếm

Thời gian trôi qua và các đề xuất trang web khác được đặt trên các khu vực không bị ảnh hưởng của trang web khi tôi cố gắng tìm ra lý do tại sao thứ hạng và giới thiệu tiếp tục giảm trong các khu vực thông tin trên của trang web.

Tôi đã hỏi chủ sở hữu trang web, người đã phát triển nội dung ban đầu. Anh ta nói rằng bản thân anh ta sử dụng nội dung đã được tìm thấy bởi các trang web khác và đưa lên trang web trong những năm gần đây.

Đầu tiên, tôi đã xem xét dữ liệu không phải trả tiền trong vài năm và thấy rằng dữ liệu đó đã bị ảnh hưởng rất nhiều trong quá trình triển khai Panda. Lắc đầu nhưng cũng mừng vì chúng tôi đã tìm ra vấn đề mình đưa lên trang web xem có bao nhiêu bản trùng lặp.

Bằng cách sử dụng các công cụ như Công cụ Sao chép Tương tự của Webconfs và Copyscape, chúng tôi đã tìm thấy nhiều trang có tỷ lệ trùng lặp tên miền chéo lớn đối với các đoạn nội dung chính xác trong các bản sao được lấy từ các trang khác.

Độ phân giải

Tài nguyên viết nội dung đã nhanh chóng làm việc để viết lại các bản sao duy nhất cho các trang này nhằm giảm tỷ lệ trùng lặp. Tất cả các trang bị ảnh hưởng sau đó đã được phát hành ở trạng thái duy nhất mới của chúng.

Tôi đã cho rằng giai đoạn hồi phục có thể diễn ra chậm, vì trong trường hợp này, quả phạt đền đã được thực hiện chậm. Đáng ngạc nhiên là chúng tôi đã sớm thấy rằng thứ hạng và lưu lượng truy cập trước chim cánh cụt của chúng tôi đã xuất hiện trong vòng một ngày.

google-analytics-rank-traffic-come-back

hỏi

Thứ hạng và lưu lượng truy cập đã quay trở lại và vẫn ở đó. Sau bữa tiệc, đã đến lúc cho một số đánh giá sau hành động dẫn đến nhiều câu hỏi bao gồm:

  • Có phải nội dung trùng lặp, cóp nhặt, bất cứ thứ gì nằm trong nguyên tắc chất lượng của Google, có phải là một yếu tố trong bản cập nhật Penguin hơn cộng đồng SEO xem xét không?
  • Nếu bạn có thể lấy lại thứ hạng cập nhật tiền thuật toán của mình trong một ngày, thì tại sao tất cả chúng vẫn không bị mất trong một ngày?
  • Tôi cũng hiểu rằng có một số cập nhật thuật toán mỗi ngày, nhưng điều thú vị là thứ hạng và sự sụt giảm lưu lượng truy cập diễn ra chính xác trong Penguin. Đã có những sự kiện và bản cập nhật thuật toán khác từ đó đến nay, nhưng tôi đã quen với việc cập nhật các bản cập nhật vì chúng là một biện pháp giảm nhẹ cho bản cập nhật thuật toán và bạn thường thấy xếp hạng được cải thiện. Tại sao tôi tiếp tục thấy xu hướng tiêu cực chậm?

Cuối cùng, tôi nghĩ câu chuyện trên cho thấy rằng việc biết khách hàng SEO của bạn hoặc nội dung của công ty bạn đến từ đâu là khá quan trọng khi nó đi trước sự tham gia của bạn vào các nỗ lực SEO trang web của bạn.

Một bài đăng gần đây của Danny Goodwin, “Nguyên tắc xếp hạng của Google Thêm chất lượng trang vào đánh giá của con người”, đã vang lên trong đầu tôi một lúc vì nó càng củng cố điều này, vì vậy chúng tôi cần chú ý đến nội dung trang web của mình. Điều này bao gồm việc đảm bảo rằng nó chủ yếu là duy nhất, nhưng hấp dẫn, được cập nhật liên tục và có ý nghĩa để được xem xét trong việc cải thiện SEO.

Theo ý kiến ​​của tôi, các nỗ lực tìm kiếm không xác định còn nguy hiểm hơn việc sao chép ngẫu nhiên nội dung trên trang web bằng cách sử dụng các thông số động, sử dụng ID phiên, sao chép tại chỗ (ví dụ: sao chép các biến thể trên trang vị trí, v.v.). Tất cả các hoạt động nguy hiểm này, cố ý hay vô tình, đều nằm trong phạm vi chất lượng nội dung. Tận tâm với nội dung trang web của bạn có thể cung cấp một bản sao mới và độc đáo mà Googlebot sẵn lòng thu thập dữ liệu sau Caffeine (một bản cập nhật thuật toán lớn khác).

Nguồn: www.searchenginewatch.com

Trả lời

Chat Zalo