Producent ChatGPT został zbadany przez amerykańskie organy regulacyjne pod kątem ryzyka AI

Otrzymuj bezpłatne aktualizacje AI

Zagrożenia stwarzane przez sztucznie inteligentne chatboty są po raz pierwszy formalnie badane przez amerykańskie organy regulacyjne po tym, jak Federalna Komisja Handlu rozpoczęła szeroko zakrojone dochodzenie w sprawie OpenAI, twórcy ChatGPT.

W liście wysłanym do firmy wspieranej przez Microsoft FTC stwierdziła, że ​​zbada, czy ludzie zostali skrzywdzeni przez chatbota AI generującego fałszywe informacje na ich temat, a także czy OpenAI angażuje się w „nieuczciwe lub oszukańcze” praktyki w zakresie prywatności i bezpieczeństwa danych.

Produkty generatywnej sztucznej inteligencji znajdują się na celowniku organów regulacyjnych na całym świecie, ponieważ eksperci i etycy zajmujący się sztuczną inteligencją biją na alarm w związku z ogromną ilością danych osobowych zużywanych przez technologię, a także jej potencjalnie szkodliwymi wynikami, od dezinformacji po seksistowskie i rasistowskie komentarze.

W maju FTC wystrzeliła ostrzegawczy strzał w stronę branży, mówiąc, że „intensywnie koncentruje się na tym, w jaki sposób firmy decydują się na wykorzystanie technologii sztucznej inteligencji, w tym nowych generatywnych narzędzi sztucznej inteligencji, w sposób, który może mieć realny i znaczący wpływ na konsumentów”.

W swoim liście amerykański regulator poprosił OpenAI o udostępnienie materiałów wewnętrznych, które obejmują zarówno sposób, w jaki grupa zatrzymuje informacje o użytkownikach, jak i kroki, jakie firma podjęła w celu rozwiązania problemu ryzyka związanego z wytwarzaniem przez jej model „fałszywych, wprowadzających w błąd lub uwłaczających” danych.

Federalna Komisja Handlu odmówiła komentarza w sprawie listu, o którym jako pierwszy poinformował The Washington Post. Pisząc na Twitterze później w czwartek, dyrektor generalny OpenAI, Sam Altman zaprosił go „Bardzo rozczarowujące, że wniosek FTC zaczyna się od przecieku i nie pomaga w budowaniu zaufania”. Dodał: „Bardzo ważne jest dla nas, aby nasza technologia była bezpieczna i prokonsumencka, i jesteśmy pewni, że postępujemy zgodnie z prawem. Oczywiście będziemy współpracować z Federalną Komisją Handlu”.

READ  Giełdy w dalszym ciągu odbijają się w obliczu obaw, że recesja w USA ulegnie złagodzeniu: rynki się zamykają

Lena Khan, przewodnicząca Federalnej Komisji Handlu, zeznawała w czwartek rano przed Komisją Sądownictwa Izby Reprezentantów i spotkała się z ostrą krytyką ze strony republikańskich prawodawców za jej twarde stanowisko wobec organów ścigania.

Zapytany o dochodzenie podczas przesłuchania, Khan odmówił komentarza na temat dochodzenia, ale powiedział, że szersze obawy regulatora obejmują ChatGPT i inne usługi AI „karmione ogromnymi ilościami danych”, podczas gdy „nie było żadnych kontroli dotyczących rodzaju danych, które są uwzględniane” w tych firmach”.

Dodała: „Słyszeliśmy o doniesieniach, w których w odpowiedzi na zapytanie innej osoby pojawiają się poufne informacje. Słyszeliśmy o oszczerstwach, zniesławiających wypowiedziach i pojawiających się nieprawdziwych rzeczach. To rodzaj oszustwa i oszustwa, które my” martwię się o.”

Khan została również zasypana pytaniami od prawodawców na temat jej mieszanych wyników w sądzie, po tym jak Federalna Komisja Handlu poniosła w tym tygodniu poważną porażkę, próbując zablokować przejęcie Activision Blizzard przez Microsoft za 75 miliardów dolarów. Federalna Komisja Handlu w czwartek odwołała się od tej decyzji.

Tymczasem republikanin Jim Jordan, przewodniczący komitetu, oskarżył Khana o „nękanie” Twittera po tym, jak firma zarzuciła w pozwie, że FTC dopuściła się „nieregularnego i niewłaściwego” postępowania przy wykonywaniu nakazu zgody, który nałożyła w zeszłym roku.

Khan nie skomentował profilu na Twitterze, ale powiedział, że FTC dba tylko o to, by firma przestrzegała prawa.

Eksperci byli zaniepokojeni ogromną ilością danych gromadzonych przez modele językowe stojące za ChatGPT. OpenAI miał ponad 100 milionów aktywnych użytkowników miesięcznie dwa miesiące po uruchomieniu. Nowa wyszukiwarka Bing firmy Microsoft, również oparta na technologii OpenAI, była używana przez ponad milion osób w 169 krajach w ciągu dwóch tygodni od jej uruchomienia w styczniu.

Użytkownicy zgłaszali, że ChatGPT sfabrykował nazwiska, daty i fakty, a także fałszywe linki do stron z wiadomościami i odniesienia do artykułów naukowych, co w branży jest znane jako „halucynacje”.

READ  10 najpopularniejszych miast wśród millenialsów kupujących domy

Dochodzenie FTC dotyczy szczegółów technicznych projektu ChatGPT, w tym prac firmy nad naprawianiem halucynacji oraz nadzoru nad recenzentami, mającymi bezpośredni wpływ na konsumentów. Poprosił również o informacje na temat skarg konsumentów i wysiłków firmy w celu oceny zrozumienia przez konsumentów dokładności i niezawodności chatbota.

W marcu włoski organ nadzorujący prywatność tymczasowo zablokował ChatGPT, ponieważ badał gromadzenie danych osobowych przez amerykańską firmę, między innymi po naruszeniu bezpieczeństwa cybernetycznego. Została przywrócona kilka tygodni później, po tym jak OpenAI uczyniło swoją politykę prywatności bardziej dostępną i wprowadziło narzędzie do weryfikacji wieku użytkowników.

Nawiązując do poprzednich zeznań na temat omylności ChatGPT, Altman napisał na Twitterze: „Jesteśmy przejrzyści w kwestii ograniczeń naszej technologii, zwłaszcza gdy jej brakuje. Nasza struktura cap-and-trade oznacza, że ​​nie jesteśmy zachęcani do generowania nieograniczonych zwrotów”. Powiedział jednak, że chatbot został zbudowany na podstawie „lat badań nad bezpieczeństwem”, dodając: „Chronimy prywatność użytkowników i projektujemy nasze systemy tak, aby rozpoznawały świat, a nie jednostki”.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *