Bill Gates: Ryzyko związane ze sztuczną inteligencją jest realne, ale możliwe do opanowania
Tekst pochodzi z GatesNotes
Świat nauczył się wiele na temat radzenia sobie z problemami spowodowanymi przez przełomowe innowacje.
Ryzyka stworzone przez sztuczną inteligencję mogą wydawać się przytłaczające. Co stanie się z ludźmi, którzy stracą pracę na rzecz inteligentnej maszyny? Czy AI może wpłynąć na wyniki wyborów? Co jeśli przyszłe AI zdecyduje, że nie potrzebuje już ludzi i zechce się nas pozbyć?
Wszystkie te pytania są słuszne, a obawy, które one budzą, należy traktować poważnie. Ale jest dobry powód, aby sądzić, że poradzimy sobie z nimi: To nie jest pierwszy raz, kiedy ważna innowacja wprowadza nowe zagrożenia, które musiały być kontrolowane. Zrobiliśmy to już wcześniej.
Czy to było wprowadzenie samochodów, czy pojawienie się komputerów osobistych i Internetu, ludzie poradzili sobie z innymi momentami transformacyjnymi i, pomimo wielu turbulencji, wyszli z tego lepiej. Wkrótce po tym, jak pierwsze samochody pojawiły się na drogach, doszło do pierwszego wypadku samochodowego. Ale nie zakazaliśmy samochodów – wprowadziliśmy ograniczenia prędkości, normy bezpieczeństwa, wymogi dotyczące licencji, prawa przeciwko jazdzie po pijanemu i inne zasady ruchu drogowego.
Obecnie jesteśmy na najwcześniejszym etapie kolejnej głębokiej zmiany, Ery AI. Jest to analogiczne do tych niepewnych czasów przed wprowadzeniem ograniczeń prędkości i pasów bezpieczeństwa. AI zmienia się tak szybko, że nie jest jasne, co dokładnie stanie się następnie. Stajemy przed wielkimi pytaniami, które rodzi sposób, w jaki działa obecna technologia, sposoby, w jakie ludzie będą jej używać do złych celów, oraz sposoby, w jakie AI zmieni nas jako społeczeństwo i jako jednostki.
W takim momencie naturalne jest poczucie niepokoju. Ale historia pokazuje, że możliwe jest rozwiązanie wyzwań stworzonych przez nowe technologie.
Wcześniej pisałem o tym, jak AI zrewolucjonizuje nasze życie. Pomoże rozwiązać problemy – w dziedzinie zdrowia, edukacji, zmian klimatu i innych – które kiedyś wydawały się nie do pokonania. Fundacja Gatesów uczyniła to priorytetem, a nasz CEO, Mark Suzman, niedawno podzielił się swoimi przemyśleniami na temat roli AI w redukcji nierówności.
W przyszłości będę miał więcej do powiedzenia na temat korzyści płynących z AI, ale w tym poście chciałbym uznać obawy, które najczęściej słyszę i czytam, wielu z nich podzielam, i wyjaśnić, jak je rozumiem.
Jedno jest jasne z wszystkiego, co do tej pory napisano na temat ryzyka związanego z AI – a napisano wiele – nikt nie ma wszystkich odpowiedzi. Kolejna rzecz, która jest dla mnie jasna, to to, że przyszłość AI nie jest tak ponura, jak niektórzy myślą, ani tak różowa, jak inni myślą. Ryzyka są realne, ale jestem optymistą, że można je opanować. Przy każdym zmartwieniu wrócę do kilku tematów:
Wiele problemów spowodowanych przez AI ma historyczny precedens. Na przykład, będzie miało duży wpływ na edukację, ale tak samo było z kalkulatorami kieszonkowymi kilka dekad temu i, bardziej niedawno, z wprowadzeniem komputerów do klasy. Możemy uczyć się z tego, co działało w przeszłości. Wiele problemów spowodowanych przez AI można również zarządzać przy pomocy AI. Będziemy musieli dostosować stare prawa i przyjąć nowe – tak jak istniejące prawa przeciwko oszustwom musiały być dostosowane do świata online. W tym poście skupię się na ryzykach, które już są obecne, lub wkrótce będą. Nie zajmuję się tym, co stanie się, gdy stworzymy AI, które może nauczyć się dowolnego przedmiotu lub zadania, w przeciwieństwie do dzisiejszych AI stworzonych do konkretnych celów. Czy osiągniemy ten punkt za dekadę czy za stulecie, społeczeństwo będzie musiało zmierzyć się z głębokimi pytaniami. Co jeśli super AI ustali swoje własne cele? Co jeśli będą one sprzeczne z celami ludzkości? Czy powinniśmy w ogóle tworzyć super AI?
Ale myślenie o tych długoterminowych ryzykach nie powinno odbywać się kosztem bardziej natychmiastowych. Teraz przejdę do nich.
Deepfakes i dezinformacja generowana przez AI mogą podważyć wybory i demokrację.
Pomysł, że technologia może być używana do rozpowszechniania kłamstw i nieprawdy, nie jest nowy. Ludzie robili to za pomocą książek i ulotek od wieków. Stało się to znacznie łatwiejsze z pojawieniem się procesorów tekstów, drukarek laserowych, e-maili i sieci społecznościowych.
AI przenosi ten problem fałszywego tekstu dalej, umożliwiając praktycznie każdemu tworzenie fałszywego audio i wideo, znanych jako deepfakes. Jeśli otrzymasz wiadomość głosową, która brzmi jak twoje dziecko mówiące „Zostałem porwany, prześlij 1000 dolarów na ten rachunek bankowy w ciągu najbliższych 10 minut i nie dzwoń na policję”, będzie to miało straszliwy emocjonalny wpływ, daleko wykraczający poza efekt e-maila mówiącego to samo.
Na większą skalę, AI-generowane deepfakes mogą być używane do próby przechylenia wyborów. Oczywiście, nie potrzeba zaawansowanej technologii, aby siać wątpliwości co do prawowitego zwycięzcy wyborów, ale AI to ułatwi.
Już teraz istnieją fałszywe filmy, które zawierają sfabrykowane materiały z udziałem znanych polityków. Wyobraź sobie, że w dniu ważnych wyborów film pokazujący jednego z kandydatów rabującego bank staje się wiralem. Jest fałszywy, ale stacjom informacyjnym i kampanii potrzeba kilku godzin, aby to udowodnić. Ile osób zobaczy to i zmieni swoje głosy na ostatnią chwilę? Mogłoby to przechylić szalę, zwłaszcza w bliskich wyborach.
Kiedy współzałożyciel OpenAI, Sam Altman, niedawno zeznawał przed komisją senacką USA, senatorzy z obu partii skupili się na wpływie AI na wybory i demokrację. Mam nadzieję, że ten temat będzie nadal przesuwał się w górę agendy wszystkich.
Na pewno nie rozwiązaliśmy problemu dezinformacji i deepfake’ów. Ale dwie rzeczy sprawiają, że jestem ostrożnie optymistyczny. Jedną z nich jest to, że ludzie są zdolni do nauczenia się, że nie wszystko można brać za pewnik. Przez lata użytkownicy poczty e-mail wpadali na oszustwa, w których ktoś udający księcia z Nigerii obiecywał dużą wypłatę w zamian za podanie numeru karty kredytowej. Ale w końcu większość ludzi nauczyła się przyglądać tym e-mailom dwa razy. W miarę jak oszustwa stawały się bardziej zaawansowane, tak samo działo się z wieloma ich celami. Będziemy musieli wypracować ten sam mechanizm dla deepfake’ów.
Drugą rzeczą, która napawa mnie nadzieją, jest to, że AI może pomóc w identyfikacji deepfake’ów, jak również w ich tworzeniu. Intel, na przykład, opracował detektor deepfake’ów, a rządowa agencja DARPA pracuje nad technologią identyfikującą, czy wideo lub audio zostało zmanipulowane.
Będzie to proces cykliczny: ktoś znajduje sposób na wykrywanie fałszerstw, ktoś inny wymyśla, jak to zneutralizować, ktoś inny opracowuje środki przeciwdziałające, i tak dalej. Nie będzie to idealny sukces, ale też nie będziemy bezradni.
AI ułatwia przeprowadzanie ataków na ludzi i rządy.
Dzisiaj, kiedy hakerzy chcą znaleźć wykorzystywalne luki w oprogramowaniu, robią to siłą – piszą kod, który uderza w potencjalne słabości, dopóki nie odkryją drogi do środka. Wiąże się to z poruszaniem się po wielu ślepych zaułkach, co oznacza, że wymaga czasu i cierpliwości.
Eksperci ds. bezpieczeństwa, którzy chcą przeciwdziałać hakerom, muszą robić to samo. Każda łatka oprogramowania, którą instalujesz na swoim telefonie lub laptopie, reprezentuje wiele godzin poszukiwań, prowadzonych przez ludzi o dobrych i złych zamiarach.
Modele AI przyspieszą ten proces, pomagając hakerom pisać bardziej efektywny kod. Będą również mogli wykorzystać publiczne informacje o jednostkach, takie jak miejsce pracy i to, kto są ich przyjaciele, do opracowywania ataków phishingowych, które są bardziej zaawansowane niż te, które widzimy dzisiaj.
Dobrą wiadomością jest to, że AI może być używane do dobrych celów, jak i złych. Rządowe i prywatne zespoły ds. bezpieczeństwa muszą mieć najnowsze narzędzia do znajdowania i naprawiania luk bezpieczeństwa, zanim przestępcy będą mogli z nich skorzystać. Mam nadzieję, że branża bezpieczeństwa oprogramowania rozszerzy pracę, którą już prowadzi w tym zakresie – powinno to być dla nich główne zmartwienie.
Dlatego też nie powinniśmy próbować tymczasowo powstrzymać ludzi przed wdrażaniem nowych rozwiązań w AI, jak proponują niektórzy. Cyberprzestępcy nie przestaną tworzyć nowych narzędzi. Tak samo jak ludzie, którzy chcą używać AI do projektowania broni jądrowych i ataków bioterrorystycznych. Wysiłek na rzecz ich zatrzymania musi trwać w tym samym tempie.
Istnieje związane z tym ryzyko na szczeblu globalnym: wyścig zbrojeń o AI, które mogą być używane do projektowania i przeprowadzania cyberataków na inne kraje. Każdy rząd chce mieć najpotężniejszą technologię, aby odstraszyć ataki ze strony swoich przeciwników. Ta zachęta do niepozwalania nikomu na wyprzedzenie może wywołać wyścig do tworzenia coraz bardziej niebezpiecznych cyberbroni. Wszyscy będą na tym gorzej.
To jest przerażająca myśl, ale mamy historię, która może nam w tym pomóc. Chociaż światowy reżim nierozprzestrzeniania broni jądrowej ma swoje wady, zapobiegł on pełnej wojnie jądrowej, której tak bardzo baliśmy się, kiedy byliśmy młodzi. Rządy powinny rozważyć stworzenie globalnego organu ds. AI podobnego do Międzynarodowej Agencji Energii Atomowej.
AI zabierze ludziom pracę.
W ciągu najbliższych kilku lat głównym wpływem AI na pracę będzie pomoc ludziom w wykonywaniu ich pracy bardziej efektywnie. Będzie to prawda, czy pracują w fabryce, czy w biurze obsługując rozmowy sprzedażowe i płatności. W końcu, AI będzie na tyle dobre w wyrażaniu pomysłów, że będzie mogło pisać twoje e-maile i zarządzać twoją skrzynką odbiorczą. Będziesz mógł napisać prośbę w prostym angielskim, czy jakimkolwiek innym języku, i wygenerować bogatą prezentację na temat swojej pracy.
Jak argumentowałem w moim poście z lutego, wzrost produktywności jest dobry dla społeczeństwa. Daje ludziom więcej czasu na robienie innych rzeczy, w pracy i w domu. A zapotrzebowanie na ludzi, którzy pomagają innym – nauczanie, opieka nad pacjentami, wsparcie dla osób starszych, na przykład – nigdy nie zniknie. Ale prawdą jest, że niektórzy pracownicy będą potrzebować wsparcia i przekwalifikowania, gdy przejdziemy tę transformację do miejsca pracy zasilanego przez AI. To jest rola rządów i firm, i będą musieli dobrze ją zarządzać, aby pracownicy nie zostali pozostawieni w tyle – aby uniknąć tego rodzaju zakłóceń w życiu ludzi, które miały miejsce podczas upadku miejsc pracy w przemyśle w Stanach Zjednoczonych.
Pamiętaj też, że to nie jest pierwszy raz, kiedy nowa technologia spowodowała duże przesunięcie na rynku pracy. Nie sądzę, aby wpływ AI był tak dramatyczny jak rewolucja przemysłowa, ale na pewno będzie tak duży jak wprowadzenie komputera osobistego. Aplikacje do przetwarzania tekstu nie zlikwidowały pracy biurowej, ale na zawsze ją zmieniły. Pracodawcy i pracownicy musieli się dostosować, i zrobili to. Przesunięcie spowodowane przez AI będzie nierównym przejściem, ale jest każdy powód, aby sądzić, że możemy zminimalizować zakłócenia w życiu i utrzymaniu ludzi.
AI dziedziczy nasze uprzedzenia i wymyśla rzeczy.
Halucynacje – termin na sytuację, gdy AI z pełnym przekonaniem twierdzi coś, co po prostu nie jest prawdą – zwykle zdarzają się, ponieważ maszyna nie rozumie kontekstu twojego żądania. Poproś AI, aby napisała krótką historię o wakacjach na księżycu, a może da ci bardzo pomysłową odpowiedź. Ale poproś ją, aby pomogła ci zaplanować podróż do Tanzanii, a może spróbować wysłać cię do hotelu, który nie istnieje.
Innym ryzykiem związanym ze sztuczną inteligencją jest to, że odzwierciedla lub nawet pogarsza istniejące uprzedzenia wobec osób o pewnej tożsamości płciowej, rasie, etniczności itp.
Aby zrozumieć, dlaczego zdarzają się halucynacje i uprzedzenia, ważne jest, aby wiedzieć, jak działają dzisiaj najpopularniejsze modele AI. Są one w zasadzie bardzo zaawansowanymi wersjami kodu, który pozwala twojej aplikacji do e-maili przewidzieć następne słowo, które zamierzasz wpisać: Skanują one ogromne ilości tekstu – prawie wszystko dostępne online, w niektórych przypadkach – i analizują go, aby znaleźć wzorce w języku ludzkim.
Kiedy zadajesz pytanie AI, patrzy ona na słowa, których użyłeś, a następnie szuka fragmentów tekstu, które często są związane z tymi słowami. Jeśli napiszesz „wymień składniki na naleśniki”, może zauważyć, że słowa „mąka, cukier, sól, proszek do pieczenia, mleko i jajka” często pojawiają się z tym wyrażeniem. Następnie, na podstawie tego, co wie o kolejności, w jakiej te słowa zwykle się pojawiają, generuje odpowiedź. (Modele AI, które działają w ten sposób, używają tzw. „transformerów”. GPT-4 jest jednym z takich modeli)
Ten proces wyjaśnia, dlaczego sztuczna inteligencja może doświadczać halucynacji lub wydawać się stronnicza. Nie ma kontekstu dla pytań, które zadajesz ani rzeczy, które mu mówisz. Jeśli powiesz komuś, że popełnił błąd, może powiedzieć: „Przepraszam, źle to wpisałem”. Ale to halucynacja — nic nie wpisało. Mówi to tylko dlatego, że zeskanował wystarczająco dużo tekstu, aby wiedzieć, że „Przepraszam, źle to wpisałem” to zdanie, które ludzie często piszą po tym, jak ktoś je poprawi.
Podobnie modele sztucznej inteligencji dziedziczą wszelkie uprzedzenia wpisane w tekst, na którym są szkolone. Jeśli ktoś dużo czyta o, powiedzmy, lekarzach, a tekst wspomina głównie o lekarzach-mężczyznach, to jego odpowiedzi zakładają, że większość lekarzy to mężczyźni.
Chociaż niektórzy badacze uważają, że halucynacje są nieodłącznym problemem, ja się z tym nie zgadzam. Jestem optymistą, że z biegiem czasu modele sztucznej inteligencji można nauczyć odróżniania faktów od fikcji. Na przykład OpenAI wykonuje obiecującą pracę na tym froncie.
Inne organizacje, w tym Alan Turing Institute i National Institute of Standards and Technology , pracują nad problemem stronniczości. Jednym z podejść jest wbudowanie w sztuczną inteligencję wartości ludzkich i rozumowania wyższego poziomu. Jest to analogiczne do sposobu, w jaki działa samoświadomy człowiek: może zakładasz, że większość lekarzy to mężczyźni, ale jesteś wystarczająco świadomy tego założenia, by wiedzieć, że musisz celowo z nim walczyć. Sztuczna inteligencja może działać w podobny sposób, zwłaszcza jeśli modele są projektowane przez ludzi z różnych środowisk.
Wreszcie, każdy, kto korzysta z AI, musi być świadomy problemu uprzedzeń i stać się świadomym użytkownikiem. Esej, o którego napisanie prosisz sztuczną inteligencję, może być równie pełen uprzedzeń, jak i błędów merytorycznych. Będziesz musiał sprawdzić uprzedzenia swojej sztucznej inteligencji, jak również własne.
Uczniowie nie nauczą się pisać, ponieważ sztuczna inteligencja wykona za nich pracę.
Wielu nauczycieli martwi się, w jaki sposób sztuczna inteligencja podważy ich pracę z uczniami. W czasach, gdy każdy, kto ma dostęp do Internetu, może używać sztucznej inteligencji do napisania przyzwoitego pierwszego szkicu eseju, co powstrzymuje uczniów przed oddaniem go jako własnej pracy?
Istnieją już narzędzia sztucznej inteligencji, które uczą się rozpoznawać, czy coś zostało napisane przez osobę, czy przez komputer, dzięki czemu nauczyciele mogą stwierdzić, kiedy ich uczniowie nie wykonują swojej pracy. Ale niektórzy nauczyciele nie próbują powstrzymać swoich uczniów przed używaniem sztucznej inteligencji podczas pisania — wręcz do tego zachęcają.
W styczniu doświadczona nauczycielka języka angielskiego, Cherie Shields, napisała artykuł w Education Week o tym, jak używa ChatGPT w swojej klasie. Pomógł jej uczniom we wszystkim, od rozpoczęcia pisania eseju po pisanie konspektów, a nawet udzielanie im informacji zwrotnych na temat ich pracy.
„Nauczyciele będą musieli przyjąć technologię sztucznej inteligencji jako kolejne narzędzie, do którego uczniowie mają dostęp” – napisała. „Tak jak kiedyś uczyliśmy uczniów, jak prawidłowo wyszukiwać w Google, nauczyciele powinni opracować jasne lekcje dotyczące tego, w jaki sposób bot ChatGPT może pomóc w pisaniu esejów. Uznanie istnienia sztucznej inteligencji i pomoc uczniom w pracy z nią może zrewolucjonizować sposób nauczania”. Nie każdy nauczyciel ma czas na naukę i używanie nowego narzędzia, ale nauczyciele tacy jak Cherie Shields przekonują, że ci, którzy to zrobią, odniosą wiele korzyści.
Przypomina mi to czasy, kiedy kalkulatory elektroniczne stały się powszechne w latach 70. i 80. XX wieku. Niektórzy nauczyciele matematyki martwili się, że uczniowie przestaną uczyć się podstaw arytmetyki, ale inni przyjęli nową technologię i skupili się na umiejętnościach myślenia stojących za arytmetyką.
Jest jeszcze jeden sposób, w jaki sztuczna inteligencja może pomóc w pisaniu i krytycznym myśleniu. Zwłaszcza w tych wczesnych dniach, kiedy halucynacje i uprzedzenia nadal stanowią problem, nauczyciele mogą zlecić sztucznej inteligencji generowanie artykułów, a następnie współpracować z uczniami w celu sprawdzenia faktów. Edukacyjne organizacje non-profit, takie jak Khan Academy i OER Project , które finansuję, oferują nauczycielom i uczniom bezpłatne narzędzia online, które kładą duży nacisk na testowanie twierdzeń. Niewiele umiejętności jest ważniejszych niż umiejętność odróżniania prawdy od fałszu.
Musimy upewnić się, że oprogramowanie edukacyjne pomaga zniwelować różnice w osiągnięciach, zamiast je pogłębiać. Dzisiejsze oprogramowanie jest głównie nastawione na wzmacnianie pozycji uczniów, którzy są już zmotywowani. Może opracować dla ciebie plan nauki, skierować cię do dobrych zasobów i sprawdzić twoją wiedzę. Ale jeszcze nie wie, jak wciągnąć cię w temat, który jeszcze cię nie interesuje. To problem, który programiści będą musieli rozwiązać, aby uczniowie wszystkich typów mogli czerpać korzyści z AI.
Co dalej?
Uważam, że istnieje więcej powodów niż brak optymizmu, że możemy zarządzać ryzykiem związanym ze sztuczną inteligencją, maksymalizując jednocześnie płynące z niej korzyści. Ale musimy działać szybko.
Rządy muszą zdobyć wiedzę specjalistyczną w zakresie sztucznej inteligencji, aby móc tworzyć przemyślane prawa i przepisy, które odpowiadają tej nowej technologii. Będą musieli stawić czoła dezinformacji i głębokim fałszerstwom, zagrożeniom bezpieczeństwa, zmianom na rynku pracy i ich wpływowi na edukację. Przytoczę tylko jeden przykład: prawo musi jasno określać, które zastosowania deepfake są legalne i jak należy je oznaczać, aby każdy zrozumiał, kiedy coś, co widzi lub słyszy, nie jest autentyczne
Przywódcy polityczni będą musieli być przygotowani do prowadzenia świadomego, przemyślanego dialogu ze swoimi wyborcami. Będą również musieli zdecydować, jak bardzo współpracować z innymi krajami w tych kwestiach, a nie działać samodzielnie.
W sektorze prywatnym firmy zajmujące się sztuczną inteligencją muszą wykonywać swoją pracę w sposób bezpieczny i odpowiedzialny. Obejmuje to ochronę prywatności ludzi, upewnianie się, że ich modele sztucznej inteligencji odzwierciedlają podstawowe wartości ludzkie, minimalizowanie uprzedzeń, rozpowszechnianie korzyści dla jak największej liczby osób oraz zapobieganie wykorzystywaniu technologii przez przestępców lub terrorystów. Firmy w wielu sektorach gospodarki będą musiały pomóc swoim pracownikom w przejściu na miejsce pracy skoncentrowane na sztucznej inteligencji, aby nikt nie został w tyle. A klienci powinni zawsze wiedzieć, kiedy wchodzą w interakcję z sztuczną inteligencją, a nie z człowiekiem.
Na koniec zachęcam wszystkich do jak najszerszego śledzenia rozwoju sztucznej inteligencji. To najbardziej rewolucyjna innowacja, jaką każdy z nas zobaczy w swoim życiu, a zdrowa debata publiczna będzie zależała od wiedzy wszystkich na temat technologii, jej korzyści i zagrożeń. Korzyści będą ogromne, a najlepszym powodem, by sądzić, że poradzimy sobie z ryzykiem, jest to, że robiliśmy to już wcześniej.
Tekst pochodzi z GatesNotes