การประมวลผลภาษาธรรมชาติเปลี่ยนแปลงวิธีการค้นหาของคุณอย่างไร
เผยแพร่แล้ว: 2020-05-14Google มุ่งมั่นที่จะปรับปรุงความเกี่ยวข้องของรายชื่อที่แสดงในหน้าผลลัพธ์ของเครื่องมือค้นหา (SERP) ด้วยการอัปเดตอัลกอริทึมทุกครั้ง การอัปเดตล่าสุดของ SERPs คือ Google's Bidirectional Encoder Representations from Transformers (BERT) ซึ่งใช้การประมวลผลภาษาธรรมชาติ BERT ถือเป็นหนึ่งในการเปลี่ยนแปลงที่สำคัญที่สุดที่ Google นำมาใช้ในช่วง 5 ปีที่ผ่านมา ซึ่งมีผลโดยตรงต่อคำค้นหา 1 ใน 10 รายการ
มีจุดมุ่งหมายเพื่อแสดงผลลัพธ์ที่เกี่ยวข้องมากขึ้นโดยตีความข้อความค้นหาหางยาวที่ซับซ้อนและซับซ้อนได้อย่างถูกต้อง ในโพสต์นี้ เราจะพูดถึงความหมายของสิ่งนี้และการเปลี่ยนแปลงวิธีการค้นหาของคุณอย่างไร
เบิร์ตคืออะไร?
เป็นเทคนิคที่ใช้โครงข่ายประสาทเทียมสำหรับการฝึกอบรมล่วงหน้าของ NLP ซึ่งช่วยให้ Google สามารถระบุบริบทของคำในข้อความค้นหาที่กำหนดได้แม่นยำยิ่งขึ้น
ตัวอย่างเช่น พิจารณาวลี “หกถึงสิบ” และ “หนึ่งในสี่ถึงหก” คำบุพบทเดียวกัน “ถึง” มีความหมายต่างกันในแต่ละวลี ซึ่งเครื่องมือค้นหาอาจไม่ชัดเจน อย่างไรก็ตาม นี่คือสิ่งที่ BERT มีประโยชน์ เนื่องจากมันสามารถสร้างความแตกต่างระหว่างบริบทของคำบุพบทในวลีแรกได้อย่างมีประสิทธิภาพเมื่อเทียบกับวิธีที่ใช้ในวลีที่สอง ด้วยความเข้าใจในบริบท มันสามารถให้ผลลัพธ์ที่เกี่ยวข้องมากขึ้น
เครือข่ายนิวรัลของอัลกอริทึมช่วยอำนวยความสะดวกในการจดจำรูปแบบ ในขณะที่เครือข่ายนิวรัลที่ได้รับการฝึกฝนในชุดข้อมูลสามารถระบุรูปแบบได้ แอปพลิเคชันทั่วไป ได้แก่ เนื้อหารูปภาพ การทำนายแนวโน้มของตลาดการเงิน และแม้แต่การจดจำลายมือ ในขณะที่ การประมวลผลภาษาธรรมชาติ หรือ NLP เป็นส่วนหนึ่งของปัญญาประดิษฐ์ (AI) ที่เกี่ยวข้องกับภาษาศาสตร์
- NLP ช่วยให้คอมพิวเตอร์เข้าใจวิธีการสื่อสารของมนุษย์ตามธรรมชาติ
- อัลกอริธึม NLP ช่วยให้สามารถตีความ ทำความเข้าใจ และจดจำรูปแบบภาษาได้
- โมเดล NLP เน้นไวยากรณ์และคำต่างๆ เพื่อค้นหาความหมายในข้อความและคำพูดในปริมาณที่ไม่รู้จบ
ความก้าวหน้าที่อำนวยความสะดวกโดย NLP ที่ผู้ใช้อินเทอร์เน็ตและธุรกิจออนไลน์ใช้ทุกวัน ได้แก่ เครื่องมือการฟังทางสังคม คำแนะนำคำ และแชทบอท
สิ่งนี้หมายความว่า?
BERT เป็นอัลกอริทึม NLP ที่ใช้โครงข่ายประสาทเทียมเพื่อสร้างแบบจำลองที่ผ่านการฝึกอบรมมาแล้ว โมเดลเหล่านี้ได้รับการฝึกฝนโดยใช้ข้อมูลจำนวนมหาศาลบนเว็บ โมเดลที่ได้รับการฝึกฝนล่วงหน้าคือโมเดล NLP ทั่วไปที่ได้รับการปรับปรุงเพิ่มเติมเพื่อทำงาน NLP เฉพาะ ในเดือนพฤศจิกายนปีที่แล้ว BERT แบบโอเพ่นซอร์สของ Google อ้างว่าให้ผลลัพธ์ที่สมบูรณ์และเกี่ยวข้องกับงาน NLP 11 รายการ รวมถึงชุดข้อมูลการตอบคำถามของ Stanford
ความเป็นสองทิศทางของ BERT ทำให้แตกต่างจากอัลกอริธึมอื่นๆ เนื่องจากสิ่งนี้ทำให้สามารถให้บริบทกับคำได้ ทำได้โดยไม่เพียงแค่พิจารณาบางส่วนของประโยคที่นำไปสู่คำนั้น แต่ยังคำนึงถึงส่วนที่ตามมาด้วย ความเป็นสองทิศทางช่วยให้เสิร์ชเอ็นจิ้นเข้าใจความหมายของคำ เช่น “ภาพยนตร์” ที่มีความหมายแตกต่างออกไปเมื่อใช้ใน “ฟิล์มกรองแสง” ซึ่งต่างจากเมื่อใช้ควบคู่ไปกับ “บล็อกบัสเตอร์”
ในการค้นหา BERT ช่วยอำนวยความสะดวกในการทำความเข้าใจรายละเอียดสำคัญของข้อความค้นหา โดยเฉพาะอย่างยิ่งเมื่อเกี่ยวข้องกับ ข้อความค้นหาเชิงสนทนา ที่ซับซ้อน หรือข้อความที่มีคำบุพบทในนั้น ตัวอย่างเช่น ในข้อความค้นหา “ผู้เดินทางชาวอินเดียไปบาหลีในปี 2021 จำเป็นต้องมีวีซ่า” คำบุพบท “ถึง” แสดงว่าผู้เดินทางกำลังจะเดินทางจากอินเดียไปบาหลี โดยการเปลี่ยนคำบุพบท คุณสามารถเปลี่ยนประโยคได้ทั้งหมด ซึ่งจะอ่านว่า “นักท่องเที่ยวชาวอินเดียปี 2021 จากบาหลีต้องการวีซ่า” และอาจหมายความว่านักเดินทางมาจากบาหลีและต้องการวีซ่าสำหรับอินเดีย BERT ช่วยให้เข้าใจความแตกต่างทางบริบทระหว่างสองประโยค
อะไรคือความแตกต่างระหว่าง BERT และ RankBrain?
RankBrain เป็นวิธี AI แรกของ Google ที่ใช้ในการค้นหา มันทำงานคู่ขนานกับอัลกอริทึมการจัดอันดับการค้นหาทั่วไปและทำการปรับเปลี่ยนผลลัพธ์ที่คำนวณโดยอัลกอริทึมเหล่านั้น RankBrain ปรับผลลัพธ์ที่นำเสนอโดยอัลกอริทึมตามข้อความค้นหาในอดีต
RankBrain ยังอำนวยความสะดวกให้ Google ตีความข้อความค้นหาเพื่อให้สามารถแสดงผลที่อาจไม่มีคำที่ตรงกับข้อความค้นหา ตัวอย่างเช่น เมื่อต้องการค้นหา "ความสูงของสถานที่สำคัญในดูไบ" ระบบจะแสดงข้อมูลที่เกี่ยวข้องกับ Burj Khalifa โดยอัตโนมัติ
ในทางกลับกัน องค์ประกอบแบบสองทิศทางของ BERT ทำให้มันทำงานในลักษณะที่แตกต่างกันมาก เมื่ออัลกอริทึมแบบดั้งเดิมดูที่เนื้อหาในหน้าเพื่อวัดความเกี่ยวข้อง อัลกอริทึม NLP ก้าวไปอีกขั้นโดยดูที่เนื้อหาก่อนหรือหลังคำเพื่อดูบริบทเพิ่มเติม เนื่องจากโดยปกติแล้วการสื่อสารของมนุษย์จะซับซ้อนและเป็นชั้นๆ จึงทำให้ความก้าวหน้าในการประมวลผลภาษาธรรมชาติมีความสำคัญ
Google ใช้ BERT และ RankBrain ร่วมกันเพื่อประมวลผลและทำความเข้าใจข้อความค้นหา BERT ไม่ได้ใช้แทน RankBrain แต่สามารถนำไปใช้ร่วมกับอัลกอริทึมอื่นๆ ของ Google หรือใช้ร่วมกับ RankBrain ได้ ขึ้นอยู่กับข้อความค้นหา
ปรับปรุงการค้นหาในภาษาอื่นๆ
ด้วยความสามารถในการนำ สิ่งที่เราได้เรียนรู้จากภาษาหนึ่ง ไปประยุกต์ใช้กับอีกภาษาหนึ่ง BERT จึงถูกนำมาใช้เพื่อทำให้ผลการค้นหามีความเกี่ยวข้องมากขึ้นสำหรับผู้ใช้อินเทอร์เน็ตทั่วโลก ตัวอย่างเช่น สิ่งที่เราเรียนรู้จากภาษาที่ใช้กันอย่างแพร่หลายบนเว็บ เช่น ภาษาอังกฤษ จะถูกนำไปใช้กับภาษาอื่นๆ ด้วยเหตุนี้จึงนำเสนอผลลัพธ์ที่ได้รับการปรับปรุงในภาษาอื่นๆ ที่ผู้คนกำลังค้นหาด้วย ยิ่งไปกว่านั้น โมเดล BERT ยังช่วยเพิ่มความเกี่ยวข้องของตัวอย่างข้อมูลแนะนำในประเทศและภาษาต่างๆ
BERT ส่งผลต่อธุรกิจของคุณอย่างไร?
BERT ยังส่งผลกระทบต่อ Google Assistant โดยกระตุ้นให้นำเสนอตัวอย่างข้อมูลเด่นหรือผลลัพธ์บนเว็บที่ได้รับอิทธิพลจากการอัปเดต BERT เทคโนโลยี NLP เช่น BERT ช่วยเพิ่มความเข้าใจในเครื่อง และนวัตกรรมนี้มีประโยชน์อย่างไม่ต้องสงสัยสำหรับผู้ใช้และธุรกิจออนไลน์จำนวนมาก อย่างไรก็ตาม สำหรับ SEO หลักการยังคงเหมือนเดิม หากคุณมี แนวปฏิบัติที่ดีที่สุดสำหรับ SEO ที่ฝังแน่นอยู่ในกลยุทธ์การตลาดของคุณ คุณก็มั่นใจได้เลยว่าเว็บของคุณจะประสบความสำเร็จ เว็บไซต์ที่ผลิตเนื้อหาคุณภาพสูง มีความเกี่ยวข้อง และสดใหม่อย่างสม่ำเสมอจะได้รับประโยชน์สูงสุดจากการอัปเดตอัลกอริทึมนี้
การเขียนเนื้อหาที่เหนือกว่าโดยอิงจากการวิจัยคำหลักคือแบบฝึกหัดที่จะยังคงเป็นปัจจัยลำดับความสำคัญในการจัดอันดับทั่วทั้งเครื่องมือค้นหา เจ้าของเว็บไซต์ที่มุ่งเน้นให้ผู้ใช้ได้รับเนื้อหาที่ให้ข้อมูลและถูกต้องตามที่คาดหวัง จะได้อันดับที่ดีใน SERP การตรวจสอบประสิทธิภาพของเพจ ในขณะที่การสร้างเนื้อหาที่ยอดเยี่ยมจะช่วยให้เว็บไซต์มีความเกี่ยวข้อง
NLP แก้ปัญหาความตั้งใจในการค้นหาหรือไม่
ด้วย BERT โดยไม่คำนึงถึงภาษาหรือคำที่ใช้ในการค้นหา โอกาสที่ Google จะได้รับผลลัพธ์ที่ถูกต้องนั้นสูงขึ้นแต่ก็ยังไม่ถึง 100 เปอร์เซ็นต์ ตัวอย่างเช่น เมื่อใช้ BERT ใครก็ตามที่ค้นหา "รัฐใดอยู่ทางใต้ของเนแบรสกา" ก็มักจะได้รับผลการค้นหาสำหรับ "เนแบรสกาใต้" แทนที่จะเป็นแคนซัส ซึ่งน่าจะเป็นคำตอบที่ผู้ใช้กำลังมองหา
การช่วยให้เครื่องเข้าใจภาษายังคงเป็นความพยายามอย่างต่อเนื่องและการได้รับความหมายที่ชัดเจนจากข้อความค้นหาใดๆ ก็ตามนั้นเป็นกระบวนการที่ซับซ้อน เมื่อ Google ใช้ NLP กับรายการคีย์เวิร์ดหลัก ผลลัพธ์สูงสุดที่แสดงอาจไม่มีคีย์เวิร์ดที่ต้องการบางคำหรือแม้แต่คำเดียว ทำให้ผลลัพธ์เหล่านั้นไม่เกี่ยวข้องกัน ด้วย BERT Google ได้ยกระดับเกมโดยนำเสนอการอัปเดตที่ซับซ้อนสำหรับอัลกอริทึม แต่การค้นหายังคงเป็นปัญหาที่ยังไม่ได้รับการแก้ไขเนื่องจากลักษณะที่ซับซ้อนของภาษามนุษย์