Dyrektor generalny OpenAI, Sam Altman, wezwał do regulacji sztucznej inteligencji w obliczu zacierania prawdziwych zagrożeń przez szum informacyjny
W odważnym wystąpieniu przed Senackim Komitetem ds. Sądownictwa, Altman zaapelował o uregulowanie branży, w której jego firma jest liderem. Altman podkreślił potencjalne katastrofalne konsekwencje, które mogą wyniknąć, jeśli technologia AI wymknie się spod kontroli. Wyraził także gotowość OpenAI do współpracy z rządem w celu zapobieżenia takim sytuacjom.
Podczas swojego wystąpienia Altman zwrócił uwagę na niebezpieczeństwa związane z sztuczną inteligencją, ostrzegając, że narzędzia takie jak ChatGPT OpenAI mogą prowadzić do utraty miejsc pracy, pomimo nadziei na stworzenie nowych możliwości zatrudnienia. Odszedł również o krok dalej, rekomendując utworzenie dedykowanej agencji regulującej sztuczną inteligencję, podkreślając znaczenie podejmowania działań prewencyjnych.
W przeciwieństwie do poprzednich konfrontacyjnych przesłuchań technologicznych w Kongresie, wtorkowa sesja była zaskakująco uprzejma. Taka atmosfera wynikała prawdopodobnie z kolacji, którą Altman odbył poprzedniego wieczoru z około 60 parlamentarzystami, podczas której reportedly zaprezentował możliwości ChatGPT. Świadkowie obecni na przesłuchaniu wydawali się oczarowani tą demonstracją, opisując ją jako pokaz magii, a nie prezentację technologiczną.
„Uważam, że to było fantastyczne” – zachwalał Rep. Ted Lieu (D-CA), podczas gdy Rep. Mike Johnson (R-LA) stwierdził: „Zaprezentował fascynujące demo na żywo”. Takie pozytywne reakcje odzwierciedlają znaczący wpływ wystąpienia Altmanna.
Jednak przesłuchanie Altmanna nie było jedynym wydarzeniem dotyczącym AI tego dnia. Na tych samych piętrach budynku odbywało się równocześnie oddzielne przesłuchanie dotyczące AI, zorganizowane przez Senacki Komitet ds. Bezpieczeństwa Wewnętrznego i Spraw Rządowych, z udziałem znaczących mówców z różnych dziedzin. Choć ta sesja dotyczyła zastosowań AI w rzeczywistym świecie i jego wpływu na społeczeństwo, otrzymała znacznie mniejszą uwagę, pozostawiając ważne dyskusje bez zauważenia.
Ten wąski skupienie na generatywnej AI, podtrzymywanej globalną fascynacją systemami uczenia maszynowego zdolnymi do tworzenia treści, może sprawić, że będziemy ignorować rzeczywiste zagrożenia AI i narażać się na szkody. Dominacja generatywnej AI, którą reprezentują ChatGPT OpenAI i podobne technologie, takie jak Bard, Midjourney czy DALL-E, wywołała ogromny szum i daje obiecujące perspektywy. Jednak ten trend okazał się szkodliwy dla pracowników, czego przykładem są media takie jak Insider i Buzzfeed, które zaczęły korzystać z dużych modeli językowych (LLM) i w konsekwencji zwalniały pracowników.
Stosowanie AI w procesie pisania wywołało także spory między Writers Guild of America a Alliance of Motion Picture and Television Producers, co doprowadziło do strajku. Wiele firm zaczęło już zastępować copywriterów i projektantów graficznych LLM-ami i generatorami obrazów. W rzeczywistości generatywne AI ma swoje ograniczenia, pomimo twierdzeń Altmanna i innych przedstawicieli branży. Pojawiają się obawy, że poleganie na AI może prowadzić do niedoceniania ludzkiej kreatywności i pomysłowości.
Eksperci, takie jak Suresh Venkatasubramanian, dyrektor Centrum Odpowiedzialności Technologicznej Brown University, i Emily M. Bender, profesor lingwistyki na University of Washington, podzielają te obawy. Uważają, że wystąpienie Altmanna było strategią marketingową, a nie autentycznym poparciem dla regulacji AI. Podczas gdy Altman publicznie popiera regulacje, brak przejrzystości OpenAI dotyczącej zbioru danych treningowych ChatGPT oraz niechęć do udostępnienia dostępu dla aplikacji osób trzecich budzą wątpliwości co do prawdziwego stanowiska firmy wobec regulacji.
„Nie prosimy podpalaczy o dowodzenie strażą pożarną” – twierdzi Venkatasubramanian. Zauważa również, że podczas gdy generatywna AI przyciąga dużą uwagę, inne formy AI, które aktywnie szkodzą ludziom od lat, pozostają niedyskutowane. Zastosowania AI w wykrywaniu oszustw, podejmowaniu decyzji w sprawach karnych, procesach rekrutacyjnych i leczeniu medycznym rodzą poważne problemy etyczne, które wymagają natychmiastowej uwagi.
Wezwanie Altmanna do regulacji może nie być całkowicie szczere, ale zwraca uwagę na konieczność podjęcia działań. Venkatasubramanian jest współautorem Koncepcji Praw dla Sztucznej Inteligencji, która zawiera wytyczne dotyczące bezpiecznego i odpowiedzialnego wdrażania algorytmów uczenia maszynowego w celu ochrony danych i prywatności zwykłych ludzi. Choć ten projekt nie zyskał jeszcze uznania w Kongresie, niektóre stany, jak na przykład Kalifornia, już proponują ustawy inspirowane tymi wytycznymi.
Podczas gdy Altman sugerował utworzenie oddzielnej agencji ds. regulacji AI, Bender argumentowała, że istniejące organy regulacyjne mają wystarczające uprawnienia do skutecznego regulowania firm AI. Ostatnio Federalna Komisja Handlu, Departament Sprawiedliwości, Biuro Ochrony Konsumentów Finansowych i Komisja Równych Szans Pracy wydały wspólne oświadczenie, w którym stwierdzono, że AI nie jest zwolnione z regulacji.
Pytanie pozostaje, czy dojdzie do istotnych zmian w polityce. Kongres, zgodnie z dotychczasowym podejściem do nowych technologii, może reagować powoli, ale przesłuchanie z wtorku wskazuje na ostrożne otwarcie na regulację AI. Jednak Bender uważa, że skoncentrowanie się na wystąpieniu Altmanna odwraca uwagę od innych istotnych aspektów. Przestrzega przed nadmiernym podziwianiem możliwości AI i przypomina o konieczności zachowania krytycznego spojrzenia, gdy interesariusze tej branży starają się sprzedawać swoje produkty i pomysły.