Bagaimana Pemrosesan Bahasa Alami Mengubah Cara Anda Mencari

Diterbitkan: 2020-05-14

Google berusaha untuk meningkatkan relevansi daftar yang disajikan di halaman hasil mesin pencari (SERP) dengan setiap pembaruan algoritme. Pembaruan terbaru untuk SERP adalah Google Bidirectional Encoder Representations from Transformers (BERT), yang menggunakan pemrosesan bahasa alami. BERT dianggap sebagai salah satu perubahan paling signifikan yang diperkenalkan oleh Google dalam lima tahun terakhir — secara langsung memengaruhi satu dari 10 kueri penelusuran.

Ini bertujuan untuk menampilkan hasil yang lebih relevan dengan menafsirkan kueri penelusuran panjang yang kompleks dengan benar. Dalam postingan ini, kita akan membahas apa artinya ini dan bagaimana ini mengubah cara Anda mencari.

Apa itu BERT?

Ini adalah teknik berbasis jaringan saraf untuk pra-pelatihan NLP yang memungkinkan Google mengidentifikasi konteks kata dalam kueri penelusuran tertentu dengan lebih akurat.

Misalnya, pertimbangkan frasa "enam hingga 10" dan "seperempat hingga enam", preposisi yang sama "ke" memiliki arti berbeda di setiap frasa, yang mungkin tidak jelas bagi mesin telusur. Namun, di sinilah BERT menjadi berguna, karena BERT dapat secara efektif membuat perbedaan antara konteks preposisi di frasa pertama dibandingkan dengan penggunaannya di frasa kedua. Melalui pemahaman konteks, dapat memberikan hasil yang lebih relevan.

Algoritme jaringan saraf memfasilitasi pengenalan pola, sementara jaringan saraf yang dilatih pada kumpulan data dapat mengidentifikasi pola. Aplikasi tipikalnya meliputi konten gambar, memprediksi tren pasar keuangan, dan bahkan mengenali tulisan tangan. Sedangkan pemrosesan bahasa alami atau NLP adalah sebagian kecil dari kecerdasan buatan (AI) yang berhubungan dengan linguistik.

  • NLP memungkinkan komputer untuk memahami bagaimana manusia berkomunikasi secara alami.
  • Algoritma NLP memungkinkan interpretasi, pemahaman, dan pengenalan pola bahasa.
  • Model NLP menyoroti tata bahasa dan kata-kata untuk menemukan makna dalam teks dan ucapan dalam jumlah tak terbatas.

Kemajuan yang difasilitasi oleh NLP yang digunakan oleh pengguna internet dan bisnis online setiap hari termasuk alat mendengarkan sosial, saran kata, dan chatbots.

Apa artinya ini?

BERT adalah algoritma NLP yang memanfaatkan jaringan saraf untuk menghasilkan model pra-terlatih. Model ini dilatih menggunakan data dalam jumlah tak terbatas yang tersedia di web. Model pra-terlatih adalah model NLP generik yang disempurnakan lebih lanjut untuk melakukan tugas NLP tertentu. Pada bulan November tahun lalu, Google open-source BERT, mengklaim telah memberikan hasil yang lengkap dan relevan pada 11 tugas NLP, termasuk dataset jawaban pertanyaan Stanford.

Bidirectionality BERT membedakannya dari algoritme lain, karena ini memungkinkannya memberikan konteks pada sebuah kata. Itu dapat dilakukan dengan tidak hanya mempertimbangkan bagian-bagian kalimat yang mengarah ke kata itu, tetapi juga mempertimbangkan bagian-bagian yang mengikutinya. Bidirectionality memungkinkan mesin pencari untuk memahami arti kata seperti "film" yang memiliki arti berbeda saat digunakan dalam "film jendela" dibandingkan dengan saat digunakan bersama "blockbuster".

Dalam pencarian, BERT memfasilitasi pemahaman tentang detail kunci dari suatu kueri, terutama ketika menyangkut kueri percakapan yang kompleks atau yang memiliki preposisi di dalamnya. Misalnya, dalam pertanyaan “Wisatawan India ke Bali 2021 membutuhkan visa”, preposisi “ke” menunjukkan bahwa pelancong tersebut akan pergi dari India ke Bali. Dengan mengubah preposisi, Anda dapat mengubah seluruh kalimatnya, yang akan berbunyi seperti “Wisatawan India dari Bali tahun 2021 membutuhkan visa,” dan dapat berarti para pelancong tersebut berasal dari Bali dan membutuhkan visa ke India. BERT memungkinkan untuk memahami perbedaan kontekstual antara kedua kalimat tersebut.

Apa Bedanya BERT dan RankBrain?

RankBrain adalah metode AI pertama Google yang diterapkan dalam pencarian. Ini berjalan paralel dengan algoritme peringkat pencarian organik dan membuat penyesuaian pada hasil yang dihitung oleh algoritme tersebut. RankBrain menyesuaikan hasil yang ditawarkan oleh algoritme berdasarkan kueri historis.

RankBrain juga memfasilitasi Google untuk menginterpretasikan permintaan pencarian sehingga dapat menampilkan hasil yang mungkin tidak memiliki kata yang sama persis dengan permintaannya. Misalnya, saat mencari "ketinggian landmark di Dubai", informasi terkait Burj Khalifa akan ditampilkan secara otomatis.

Di sisi lain, komponen dua arah BERT membuatnya beroperasi dengan cara yang sangat berbeda. Jika algoritme tradisional melihat konten di halaman untuk mengukur relevansi, algoritme NLP melangkah lebih jauh dengan melihat konten sebelum atau sesudah kata untuk konteks tambahan. Karena komunikasi manusia biasanya rumit dan berlapis, kemajuan dalam pemrosesan bahasa alami ini menjadi penting.

Bersama-sama, BERT dan RankBrain digunakan oleh Google untuk memproses dan memahami kueri. BERT bukan pengganti RankBrain tetapi dapat diterapkan bersama algoritma Google lainnya atau dikombinasikan dengan RankBrain, tergantung pada istilah pencarian.

Meningkatkan Penelusuran dalam Lebih Banyak Bahasa

Dengan kemampuan untuk mengambil apa yang telah kita pelajari dari satu bahasa dan menerapkannya ke bahasa lain, BERT digunakan untuk membuat hasil pencarian lebih relevan bagi pengguna internet di seluruh dunia. Misalnya, apa yang kami pelajari dari bahasa yang paling banyak digunakan di web, seperti bahasa Inggris, kemudian diterapkan ke bahasa lain. Dengan demikian, menawarkan hasil yang lebih baik dalam bahasa lain yang juga dicari orang. Selain itu, model BERT juga meningkatkan relevansi cuplikan fitur di berbagai negara dan bahasa.

Bagaimana BERT Mempengaruhi Bisnis Anda?

BERT juga memengaruhi Google Assistant dengan memicunya untuk menawarkan cuplikan unggulan atau hasil web yang dipengaruhi oleh pembaruan BERT. Teknologi NLP seperti BERT meningkatkan pemahaman mesin dan inovasi ini tidak diragukan lagi bermanfaat bagi banyak pengguna dan bisnis online. Namun, dalam hal SEO, prinsipnya tetap sama. Jika Anda memiliki praktik terbaik SEO yang tertanam dalam strategi pemasaran Anda, maka Anda dapat yakin akan kesuksesan web Anda. Situs web yang menghasilkan konten berkualitas tinggi, relevan, dan segar secara konsisten akan mendapat manfaat maksimal dari pembaruan algoritme ini.

Menulis konten unggulan berdasarkan penelitian kata kunci adalah latihan yang akan tetap menjadi faktor peringkat yang diprioritaskan di seluruh mesin pencari. Pemilik situs web yang berfokus pada penggunanya untuk mendapatkan konten yang informatif dan akurat yang mereka harapkan, berakhir dengan peringkat yang bagus di SERP. Memantau kinerja halaman, sambil membuat konten yang bagus akan membantu situs web tetap relevan.

Apakah NLP Memecahkan Maksud Pencarian?

Dengan BERT, terlepas dari bahasa atau kata yang digunakan dalam kueri, kemungkinan Google mendapatkan hasil yang benar menjadi lebih tinggi tetapi masih belum 100 persen. Misalnya, bahkan dengan BERT, siapa pun yang menelusuri "negara bagian mana di selatan Nebraska", mereka cenderung mendapatkan hasil untuk "Nebraska Selatan", bukan Kansas, yang mungkin merupakan jawaban yang dicari pengguna.

Membantu mesin untuk memahami bahasa tetap merupakan upaya yang berkelanjutan dan mendapatkan makna yang pasti dari permintaan apa pun adalah proses yang kompleks. Saat Google menerapkan NLP ke daftar kata kunci utama, hasil teratas yang ditampilkan mungkin tidak berisi beberapa atau bahkan hanya salah satu kata kunci yang diperlukan, membuat hasil tersebut tidak relevan. Dengan BERT, Google telah meningkatkan permainannya dengan menawarkan pembaruan canggih pada algoritmenya, tetapi pencarian tetap menjadi masalah yang belum terpecahkan karena sifat bahasa manusia yang kompleks.