สารบัญ
สิ่งที่มีรายงานว่า Google เปลี่ยนไป ส่งผลต่อเครื่องมือ SEO
ประเด็น | รายละเอียด / ผลกระทบ | แหล่งอ้างอิง |
---|---|---|
การตัด &num=100 parameter | Google ยกเลิกการรองรับ parameter &num=100 ที่ใช้ดึงผลลัพธ์ 100 อันดับ (SERP 1–100) — ผลคือ เครื่องมือที่เคยดึงข้อมูล SERP ข้างหลังหน้าแรกจะดึงไม่ได้เต็มจำนวนอีกต่อไป | Ahrefs อธิบายเรื่องนี้ในบล็อกของตน Ahrefs และ SearchEngineLand รายงานถึง “data blackout” หลัง Google เปลี่ยนระบบการโต้ตอบอัตโนมัติ |
การบังคับเปิด JavaScript ในการใช้งาน Google Search | มีรายงานว่า Google เริ่มบังคับให้ “ผู้ใช้/ระบบ” ต้องเปิด JavaScript เพื่อใช้งาน Search — แนวทางนี้ทำให้ bot/ระบบที่ไม่เปิด JavaScript ถูกกีดกัน/จำกัด | รายงานจาก SearchEngineLand |
ลดการ index หรือ “เก็บหน้าเว็บน้อยลง” ตั้งแต่ปลาย พ.ค. 2025 | หลาย Webmaster / SEO รายงานว่า ตั้งแต่ปลายเดือน พ.ค. ~ มิถุนายน 2025 พบว่า Google ดูเหมือน “เก็บหน้าใหม่” หรือ “คงรักษาหน้าเดิม” ได้น้อยลง โดยบางหน้าแสดง “Crawled – currently not indexed” เพิ่มขึ้น | Barry Schwartz สรุปประเด็นใน Seroundtable Search Engine Roundtable และมี Webmaster ตอบรับรายงานคล้ายกันอีกมาก |
อัปเดตหลัก (Core Update) เดือน มิถุนายน 2025 – มีผล “de-indexing” | บางบทความวิเคราะห์ว่า Core Update ล่าสุดของ Google ไม่ได้แค่ปรับอันดับ แต่ “ลบหน้า” ออกจาก index หาก Google พิจารณาว่าเนื้อหาไม่มีคุณภาพเพียงพอ (thin content, AI content, ขาด E-E-A-T) | บล็อกวิเคราะห์หลายแห่งกล่าวถึงการ “หน้าเว็บถูกดึงออกจาก index” หลังอัปเดตนี้ |
ทำไมเครื่องมือ SEO เหมือน “เก็บดัชนีได้น้อยลง”
ต้องทำความเข้าใจ 2 มุม
- มุม Google / ระบบ index จริง
— Google ตัดสินใจที่จะ ไม่ index หน้าเว็บบางหน้า (แม้จะเคยเก็บไว้ก่อนหน้า) หรือ delay การ index หน้าใหม่ ด้วยเหตุผลเช่น คุณภาพเนื้อหา, ซ้ำซ้อน, ปัญหาทางเทคนิค, crawl budget ฯลฯ
— ตัวอย่าง “Crawled – currently not indexed” เป็น status ที่ Googlebot ไปไต่แล้วแต่ไม่ได้ใส่เข้า index ทันที (หรืออาจไม่ใส่เลย)
— Google บอกว่า “เราจะไม่ index ทุกหน้า” และสิ่งที่ index ได้นั้นอาจเปลี่ยนแปลงไปตามเวลา - มุมเครื่องมือ SEO / ระบบเก็บข้อมูลภายนอก
— เมื่อ Google ปรับระบบ backend หรือ API, หรือ “วิธีที่ตอบโต้ bot / scraper” เครื่องมือ SEO อาจโดนจำกัดไม่ให้เก็บข้อมูลบางส่วน (SERP ข้างหลัง, metadata, ranking data) เหมือนในอดีต
— พอ parameter&num=100
ถูกจำกัด/ยกเลิก — เครื่องมือจะเห็นผลลัพธ์ได้แค่หน้าแรก (10 อันดับ) ทำให้ข้อมูล ranking หลังอันดับ 10 หายไปในรายงาน
— การเปลี่ยนแปลงวิธีตรวจสอบ / คิวรี Search ทำให้บางระบบที่ไม่รองรับวิธีใหม่ใช้งานได้ไม่เต็มที่ — มีรายงานว่าเครื่องมือหลายราย “blackout” ช่วงเปลี่ยนระบบของ Google
ดังนั้น “เก็บดัชนีได้น้อยลง” ของเครื่องมือ อาจเป็นเพราะ
- Google ไม่เปิดให้ bot ภายนอกเข้าถึงข้อมูลบางอย่าง
- Google ลดการ index จริง
- หรือเป็น mix ของทั้งสอง
แนวทางตรวจสอบ &รับมือ
เพื่อให้มั่นใจว่าเว็บไซต์ของเรายังถูก index ได้ดี และลดผลกระทบจากการเปลี่ยนแปลงเหล่านี้ ผมแนะนำแนวทางดังนี้:
ขั้นตอน | วิธีปฏิบัติ / เครื่องมือที่ใช้ | จุดที่ให้ตรวจ |
---|---|---|
ตรวจสอบ Google Search Console | ดูรายงาน Coverage / Indexing ว่า “Excluded”, “Crawled – currently not indexed”, “Discovered – currently not indexed” เพิ่มขึ้นหรือไม่ | ถ้ามีหน้าสำคัญถูกจัดเป็น excluded เยอะ ให้ไล่สาเหตุ |
ตรวจสอบเนื้อหา &คุณภาพ | ตรวจสอบว่าหน้าเว็บมีเนื้อหาลึก มีประสบการณ์จริง (Experience) / ความเชี่ยวชาญ (Expertise) / ความน่าเชื่อถือ (Trust) / ความเป็นเอกลักษณ์ (Unique) | ถ้าเนื้อหาแปะซ้ำ มาจาก AI อย่างเดียว อาจโดนตัด |
ปรับปรุงโครงสร้างเว็บ / internal linking | ทำหน้า “cluster” / hub ให้หน้าใหม่มี internal link เชื่อมโยงดี | หน้า orphan (ไม่มี link เข้า) เสี่ยงไม่ถูก crawl |
ตรวจสอบ crawl budget / ประสิทธิภาพ server | ตรวจดูว่า Googlebot เข้ามาค้นได้บ่อยแค่ไหน (ใน logs) / ไม่มี server timeouts / ไม่มี redirect chain ยาว | ถ้า bot เข้าไม่ถึงเพราะติดปัญหาทางเทคนิค หน้าใหม่จะถูกละเลย |
ใช้ URL inspection / Request indexing | สำหรับหน้าใหม่หรือต้องการผลเร็ว ให้ใช้ URL Inspection แล้ว “Request Indexing” | Google มีจำกัดจำนวนที่ request ได้ต่อวัน |
เฝ้าดูพัฒนาการ | ติดตามว่า “หน้าเว็บที่ถูก pull ออกจาก index” กลับมาไหม เมื่อปรับปรุง | อาจใช้ period review ทุก 1–2 สัปดาห์ |
ใช้เครื่องมือหลายตัว + cross check | อย่าพึ่งเครื่องมือเดียว — ใช้ GSC เป็นหลัก, แล้วเปรียบกับ Ahrefs / Moz / SEMrush | ถ้าเครื่องมือภายนอกแสดง “หาย” แต่ GSC ยังมีแสดง ก็อาจเป็นปัญหาด้านเครื่องมือ |