Prawdziwy problem z generatywnym AI
Artykuł autorstwa Joe Procopio, założyciela TeachingStartup.com, zatytułowany „Prawdziwy problem z generatywnym AI – i to nie jest dystopijny koszmar” skupia się na problemach związanych z generatywnym AI, w szczególności z modelem ChatGPT.
Zgodnie z opinią autora, większość osób, które nie mają dogłębnej wiedzy o generatywnym AI, obawia się najczęściej dwóch scenariuszy. Pierwszy to science-fiction rodem z „Terminatora” czy „Matrixa”, gdzie maszyny ostatecznie przejmują kontrolę nad światem. Drugi scenariusz dotyczy zagrożeń związanych z oszustwami, deepfakes i fałszywymi informacjami generowanymi przez maszyny i podawanymi jako autorytatywne źródło wiedzy.
Jednak zdaniem autora, żadne z tych zagrożeń nie stanowią największego, natychmiastowego problemu. Głównym problemem z ChatGPT i generatywnym AI jest to, że słowa mają znaczenie. Chyba że używasz ChatGPT – wtedy słowa stają się bezużyteczne.
Autor wyjaśnia, że prawdziwym problemem jest to, że ludzie mogą rozpoznać tekst generowany przez maszynę i zaakceptować go jako rzeczywisty. W kontekście dodawania wiedzy do Internetu, dodajemy więcej siana do stogu, a nie więcej igieł.
Generatywne AI zaczyna generować odpowiedzi na dowolne pytania, które każda osoba chce zadać, co prowadzi do problemu: „Jeśli AI mówi, że tak jest, to musi tak być”. I jest to problem, ponieważ 99% czasu, AI da „prawidłową” odpowiedź, która będzie jednak niejasna w najbardziej mylący możliwy sposób.
Autor podaje przykład z życia, w którym generatywne AI nie dostarczyło satysfakcjonującej odpowiedzi, mimo że była ona technicznie prawidłowa. Według niego, kluczowym problemem jest to, że nawet jeśli generatywne AI jest „prawidłowe”, nie zawsze jest „dobre”. I może to prowadzić do nieporozumień, błędów i potencjalnie szkodliwych decyzji.
W końcowym wniosku, Procopio podkreśla, że technologia nie jest problemem – to przekonanie, że technologia jest zawsze prawidłowa, jest prawdziwym problemem.
Źródło: inc.com