Aktualności SEO i generatywna sztuczna inteligencja: wewnątrz „pasożytniczego związku”
Opublikowany: 2023-03-21Ponieważ krążą doniesienia, że laboratorium badawcze AI OpenAI wykorzystuje wiadomości z mediów, takich jak Wall Street Journal i CNN, do szkolenia swojego chatbota ChatGPT, pojawia się jeszcze większe wyzwanie: w jaki sposób media utrzymują ruch, przychody i trafność w erze generatywnej sztucznej inteligencji?
Wiadomości generowane przez sztuczną inteligencję od dawna budzą strach wśród dziennikarzy. Na przykład w 2016 r. brytyjskie stowarzyszenie prasowe zasygnalizowało zamiar wykorzystania sztucznej inteligencji w niektórych artykułach sportowych i wyborczych.
Widzieliśmy nowsze przykłady w Stanach Zjednoczonych, takie jak ta obława NHL z Associated Press skompilowana z technologią firmy Data Skrive zajmującej się automatyzacją treści sportowych.
Dyrektor generalny firmy medialnej Axel Springer, która jest właścicielem tytułów takich jak Business Insider i Politico, powiedział niedawno, że sztuczna inteligencja może całkowicie zastąpić dziennikarzy. „Przetrwają tylko ci, którzy tworzą najlepsze oryginalne treści” – napisał podobno Springer w liście do pracowników.
„Nieznane problemy z prawami autorskimi”
Kwestia praw autorskich – i potencjalnych problemów prawnych – pojawiła się już we Francji i Hiszpanii.
„Jeśli OpenAI zamierza udoskonalić swój model o aktualne treści bez wysyłania ruchu [do pierwotnego źródła], wywoła to debatę [na temat], kto jest właścicielem praw do treści” — powiedział Marcus Tober, starszy wiceprezes prezes ds. rozwiązań dla przedsiębiorstw w platformie marketingowej Semrush.
OpenAI widziało już kilka pozwów dotyczących praw autorskich, a Dan Smullen, szef SEO w platformie hazardu sportowego Betsperts Media and Technology Group, powiedział, że wkrótce możemy spodziewać się więcej.
„W rzeczywistości, pomimo słyszenia, że niektórzy wydawcy zaczęli wprowadzać treści wspomagane przez sztuczną inteligencję w redakcjach, zespoły redakcyjne, z którymi rozmawiałem, czują się niekomfortowo, korzystając z wyników OpenAI z powodu nieznanych problemów z prawami autorskimi” — dodał Smullen.
Zauważył, że OpenAI podjął kroki w celu rozwiązania tych problemów, na przykład umożliwiając wydawcom rezygnację z wykorzystywania ich treści. Laboratorium badawcze AI zgodziło się również na zapewnienie atrybucji, gdy jego algorytmy zbierają informacje z serwisów informacyjnych.
„Mimo to specjaliści ds. SEO w branży medialnej martwią się, że ten system może nie chronić odpowiednio przed prawami autorskimi i kwestiami własności intelektualnej” — dodał Smullen. „W związku z tym organizacje informacyjne powinny nadal monitorować wykorzystanie danych wiadomości przez OpenAI i upewnić się, że ich treści są wykorzystywane w sposób odpowiedzialny”.
Jednym z łatwych rozwiązań byłoby dodanie przypisów prowadzących do źródeł, podobnie jak robi to ChatGPT w Bing.
„Spodziewamy się czegoś podobnego w [konwersacyjnej usłudze sztucznej inteligencji Google] Bard” — dodał Smullen.
Otrzymuj codzienny biuletyn wyszukiwania, na którym polegają marketerzy.
Zobacz warunki.
„Rozpad prawdy”
Ostatecznie nacisk AI na wiadomości grozi ponownym wzrostem konsumpcji mediów.
Według Bena Poultona, konsultanta ds. SEO i założyciela agencji SEO Intellar, firmy wykorzystujące sztuczną inteligencję „zagrażają wyselekcjonowanej kontroli, jaką organizacje informacyjne mają od dziesięcioleci”.
Wynik może być dalszej degradacji dziennikarskiej rzetelności.
Smullen zauważył, że brak wynagrodzenia wydawcy za dane szkoleniowe może doprowadzić do przyszłości, w której wydawcy będą blokować OpenAI i jego odpowiedniki, więc witryny z wiadomościami o wysokim autorytecie nie będą indeksowane. To z kolei może stanowić jeszcze większe wyzwanie w przypadku fałszywych wiadomości, w tym szerszego obiegu niedokładnych i/lub stronniczych informacji podszywających się pod fakty.
W związku z tym Smullen wezwał wydawców do wynagrodzenia za ich kluczową rolę – i Cameron Conaway, były dziennikarz śledczy, który kieruje zespołem ds. marketingu wzrostu w firmie technologicznej Cisco i wykłada marketing cyfrowy na Uniwersytecie w San Francisco, zgodził się z tym.
„Czy to może pogłębić rozpad prawdy i nieufność społeczeństwa do legalnych nowych źródeł?” on zapytał. „Jaki wpływ może to mieć na demokrację, jeśli większość informacji nie ma źródła i kto (lub co) będzie wtedy sprawował władzę?”
„Katastrofalne implikacje”
Istnieją nawet obawy, że OpenAI ostatecznie całkowicie zautomatyzuje produkcję wiadomości. Mimo to Barry Adams, wyspecjalizowany konsultant SEO w firmie SEO Polemic Digital, zauważył, że generatywne systemy sztucznej inteligencji nie są w stanie przewidzieć wiadomości, więc nie przewiduje żadnych bezpośrednich problemów.
„AI nie zastąpi dziennikarstwa, jeśli chodzi o przekazywanie wiadomości, badanie historii i rozliczanie władzy” – dodał.
Z drugiej strony sztuczna inteligencja może przeredagować lokalne wiadomości bez cytowania, wypluwając własne wersje. To z kolei spowodowałoby wysysanie ruchu i powiązanych dochodów z serwisów informacyjnych, co jest szczególnie szkodliwe dla lokalnych serwisów informacyjnych, które są szczególnie uzależnione od ruchu reklam displayowych, powiedział Conaway.
A przeformułowanie może potencjalnie zmienić pierwotne znaczenie reportażu.
„Połączenie niechlujnych i wrażliwych finansowo lokalnych redakcji, ogólne unikanie mediów i nieufność oraz wzrost AI jako głównego źródła może mieć katastrofalne skutki” – dodał.
Ale to nie wszystko – czekaj na to – złe wieści.
„Pozytywną stroną organizacji informacyjnych jest to, że ludzie zawsze będą konsumować wiadomości. Zmienia się tylko medium” — powiedział Poulton. „Jeśli ChatGPT może podsumować pięć historii na ten sam temat z pięciu różnych punktów sprzedaży w ciągu pięciu sekund, czy to nie jest dobry produkt? Może takie jak ChatGPT można by wykorzystać w witrynach z wiadomościami, aby pomóc użytkownikom załamać się i szybko znaleźć potrzebne informacje”.
„Pasożytniczy związek”
Najpierw jednak strony muszą zająć się kwestią ruchu i przychodów.
Adams powiedział, że brak atrybucji we wczesnych iteracjach Bing ChatGPT i Google's Language Model for Dialogue Applications (LaMDA) najbardziej go tutaj martwi.
„Podważa to fundamentalną umowę sieci, w której wyszukiwarki i strony z treściami istnieją w stanie symbiozy” – powiedział. „Generatywna sztuczna inteligencja zamienia tę symbiozę w pasożytniczą relację, w której wyszukiwarki biorą wszystko od twórców treści (tj. treści potrzebne do szkolenia [dużych modeli językowych (LLM)]) i nie dają nic w zamian”.
Należący do Google YouTube już jednak korzysta z bardziej symbiotycznego modelu, w którym twórcy treści dzielą się przychodami generowanymi przez platformę.
„Nie ma powodu, dla którego podobny model nie mógłby zostać przyjęty w wyszukiwarkach i sieci, poza tym, że sprawiłoby to, że Google stałby się mniej maszyną do drukowania pieniędzy i straciłby część wartości dla akcjonariuszy” – dodał Adams.
Smullen zgodził się, że rozwiązaniem jest płacenie wydawcom za dane szkoleniowe.
„Podobnie jak Google, będzie nadużywał swojej dominacji, dopóki rządy nie zaczną kwestionować legalności jego modelu biznesowego z punktu widzenia praw autorskich” – powiedział Smullen. „To sprawiedliwe, aby wydawcy otrzymywali wynagrodzenie za ich rolę w umożliwieniu następnej generacji sztucznej inteligencji”.
Adams zgodził się, że jest mało prawdopodobne, że Google dobrowolnie zmniejszy swoje zyski.
„Nie będzie ich obchodzić, że wykorzystali połączoną wiedzę ludzkości udostępnioną w sieci do zbudowania tych generatywnych systemów sztucznej inteligencji, a teraz odrzucają tych twórców bez podania źródła” – dodał. „Jeśli uda im się uciec, zrobią to”.
„Zachowuj czujność”
Według Juliana Scotta, stratega ds. treści w firmie Socialbu zajmującej się zarządzaniem mediami społecznościowymi i narzędziem do automatyzacji, niektóre organizacje informacyjne już odpowiedziały zaostrzonymi umowami licencyjnymi, wzmocnionymi zasadami gromadzenia i wykorzystywania danych oraz korzystaniem z oprogramowania chroniącego prawa autorskie.
„Jednak te środki mogą nie wystarczyć, aby w pełni chronić ich zawartość przed wykorzystaniem bez podania źródła” – dodał.
Specjaliści SEO z branży medialnej domagają się lepszych narzędzi w ramach modelu OpenAI, które zapewniłyby odpowiedni kredyt, zauważył Daniel Chabert, dyrektor generalny i założyciel agencji zajmującej się tworzeniem stron internetowych i oprogramowania PurpleFire.
„Mają nadzieję, że OpenAI zwiększy swoją przejrzystość w zakresie korzystania z danych wiadomości i będzie bardziej proaktywny w ostrzeganiu autorów i wydawców, gdy ich treści są wykorzystywane” – dodał.
Tymczasem organizacje informacyjne mądrze byłoby zainwestować w lepsze systemy monitorowania w celu wykrywania błędów lub odchyleń w danych generowanych przez modele OpenAI.
„Organizacje informacyjne muszą zachować czujność w zakresie wykorzystywania danych wiadomości przez OpenAI i podejmować niezbędne kroki w celu ochrony ich treści oraz zapewnienia dokładności i jakości” – dodał Chabert.
„Miejsce docelowe pierwszego przystanku”
Istnieje również jedna sprawdzona taktyka marketingu online, która jest tutaj szczególnie istotna.
Adams zauważył, że strony internetowe muszą zacząć myśleć o „przyszłości post-Google” i budować silne marki, które bezpośrednio wiążą z nimi odbiorców.
„Niektórzy wydawcy odnoszą w tym spory sukces i zbudowali marki, które są prawie odporne na kaprysy wyszukiwarek” – dodał. „Celem jest stać się celem pierwszego przystanka dla odbiorców, z czytelnikami bezpośrednio odwiedzającymi Twoją witrynę bez pośrednictwa Google czy Facebooka”.
Matt Greenwood, menedżer ds. SEO w agencji wyszukiwania Reflect Digital, maleje, ponieważ impuls do klikania w oryginalne źródła powinien „zapewniać informacje i doświadczenia, które są bardziej wartościowe niż można skondensować w kilku wierszach automatycznie generowanego tekstu”. , aby dać konsumentom powód, aby nadal odwiedzali nasze witryny i czytali nasze oryginalne treści”.
Opinie wyrażone w tym artykule są opiniami autora-gościa i niekoniecznie Search Engine Land. Autorzy personelu są wymienieni tutaj.