Comisia Federală pentru Comerț a lansat o investigație în: Deschide AIeste un startup de inteligență artificială care face Chat GPTdacă chatbot-urile au făcut rău consumatorilor prin colectarea de date și dezvăluirea de informații false despre persoane.
Într-o scrisoare de 20 de pagini trimisă companiei din San Francisco săptămâna aceasta, compania a spus că investighează și practicile de securitate ale OpenAI. În scrisoare, FTC a adresat OpenAI zeci de întrebări, inclusiv cum își antrenează compania modelele AI și ce face cu datele personale, și a spus că compania ar trebui să furnizeze agenției documente și detalii.
FTC investighează dacă OpenAI „s-a implicat în practici neloiale sau înșelătoare de confidențialitate sau de securitate a datelor sau s-a implicat în practici neloiale sau înșelătoare legate de riscul de a vătăma consumatorii.” se spune în scrisoare.
Conținutul sondajului este raportate anterior The Washington Post a raportat că o persoană familiară cu ancheta a confirmat.
Investigația FTC reprezintă prima amenințare majoră de reglementare din SUA la adresa OpenAI, una dintre cele mai cunoscute companii de inteligență artificială și, pe măsură ce oamenii, întreprinderile și guvernele folosesc din ce în ce mai mult produse bazate pe inteligență artificială, tehnologia va continua să crească. Chatbot-urile, care pot genera răspunsuri ca răspuns la solicitări, pot înlocui locurile de muncă ale oamenilor și pot răspândi dezinformări, astfel încât semnalele de alarmă sună în tehnologia în evoluție rapidă.
Sam AltmanȘeful OpenAI a spus că industria în plină dezvoltare a AI trebuie reglementată. în Mai a depus mărturie în fața Congresului Acesta își propune să viziteze sute de parlamentari pentru a atrage proiecte de lege pentru inteligența artificială și pentru a stabili agenda politică în jurul acestei tehnologii.
joia a postat pe Twitter El a spus că este „extrem de important” ca tehnologia OpenAI să fie sigură. „Suntem încrezători că respectăm legea”, a spus el, adăugând că va coopera cu autoritățile.
OpenAI se află deja sub presiunea reglementărilor internaționale. Autoritatea italiană pentru protecția datelor a interzis ChatGPT în martie, acuzând OpenAI că colectează ilegal date personale de la utilizatori și că nu are un sistem de verificare a vârstei pentru a preveni expunerea minorilor la conținut ilegal. OpenAI a declarat că a recâștigat accesul la sistem luna următoare și a făcut modificările solicitate de autoritățile italiene.
FTC se mișcă cu o viteză alarmantă asupra AI, lansând o investigație la mai puțin de un an după ce OpenAI a introdus ChatGPT. Președintele FTC, Rina Khan, a spus că companiile de tehnologie ar trebui reglementate într-un stadiu incipient, nu atunci când tehnologia se maturizează.
În trecut, au fost făcute publice greșeli grave ale companiei, inclusiv lansarea unei investigații asupra practicilor de confidențialitate ale Meta, în urma unor rapoarte conform cărora aceasta a partajat datele utilizatorilor cu firma de consultanță politică Cambridge Analytica în 2018. Era obișnuit ca agenția să lanseze o investigație. mai tarziu.
MERSI. Khan a mărturisit joi la o audiere a comitetului Camerei despre practicile agenției și a spus anterior că industria AI are nevoie de control.
“Deși aceste instrumente sunt noi, ele nu sunt scutite de regulile existente. FTC va aplica cu fermitate legile pe care suntem responsabili pentru guvernare, chiar și pe această nouă piață. Aș vrea”, a spus ea. a scris într-un eseu invitat în New York Times în mai. „Tehnologia avansează rapid, dar vedem deja unele riscuri.”
La o audiere a Comisiei Judiciare a Camerei de joi, ea a spus: „Unele dintre ChatGPT și alte servicii sunt alimentate cu o cantitate enormă de date”, a spus Khan, a adăugat că au existat și rapoarte că „informațiile sensibile” ale oamenilor au fost scurse.
Investigația ar putea forța OpenAI să dezvăluie metodologia sa de construire a ChatGPT și ce surse de date folosește pentru a-și construi sistemul AI. OpenAI a fost destul de deschis cu privire la astfel de informații pentru o lungă perioadă de timp, dar recent a spus puține despre de unde provin datele pentru sistemul său AI și cât de mult au fost folosite pentru a construi ChatGPT. Probabil din cauza fricii de copiere a concurenților și a fricii de procese. Dincolo de utilizarea unor seturi de date specifice.
Chatboții, pe care companii precum Google și Microsoft îi adoptă, de asemenea, revoluționează modul în care este construit și utilizat software-ul de calculator. Sunt pregătiți să reinventeze motoarele de căutare pe Internet precum Google Search și Bing, asistenți digitali vocali precum Alexa și Siri și servicii de e-mail precum Gmail și Outlook.
Când OpenAI a lansat ChatGPT în noiembrie, a captat rapid imaginația publicului cu capacitatea sa de a răspunde la întrebări, de a scrie poezii și de a scrie riff-uri pe aproape orice subiect. Dar tehnologia poate amesteca, de asemenea, realitatea și ficțiunea, sau poate inventa informații. Oamenii de știință numesc acest fenomen „”.Halucinaţie“
ChatGPT este alimentat de ceea ce cercetătorii AI numesc rețele neuronale. Aceasta este aceeași tehnologie care permite unor servicii precum Google Translate să traducă între franceză și engleză, iar mașinilor cu conducere autonomă să identifice pietonii în timp ce navighează pe străzi. Rețelele neuronale învață abilități analizând date. De exemplu, poate recunoaște pisicile identificând modele în mii de fotografii cu pisici.
Cercetătorii de la laboratoare precum OpenAI au proiectat rețele neuronale pentru a analiza cantități mari de text digital, cum ar fi articole Wikipedia, cărți, articole de știri și jurnalele de chat online.Aceste sisteme, cunoscute ca model de limbaj la scară largăam învățat să generez textul personal, dar poate repeta informații eronate sau combina fapte în moduri care produc informații inexacte.
În martie, Centrul pentru AI și Politică Digitală, un grup de advocacy care promovează utilizarea etică a tehnologiei, a îndemnat OpenAI să nu mai lanseze o nouă versiune comercială a ChatGPT, invocând îngrijorări legate de părtinire, dezinformare și securitate. Am făcut o solicitare către FTC. .
La mai puțin de o săptămână mai târziu, organizația și-a actualizat plângerea pentru a descrie modalități suplimentare în care chatbot-urile ar putea provoca rău, ceea ce OpenAI a notat de asemenea.
„Compania însăși recunoaște riscurile asociate cu lansarea produselor sale și solicită reglementări”, a declarat Mark Lautenberg, fondator și președinte al Centrului pentru AI și Politică Digitală. „Comisia Federală pentru Comerț trebuie să acționeze.”
OpenAI a lucrat pentru a îmbunătăți ChatGPT și a reduce frecvența conținutului părtinitor, fals sau dăunător în alt mod. Pe măsură ce angajații și alți testeri folosesc sistemul, compania le cere să evalueze utilitatea și veridicitatea răspunsurilor lor. Aceste evaluări sunt apoi folosite pentru a defini cu mai multă atenție ce face și ce nu face chatbot-ul, printr-o tehnică numită învățare prin întărire.
Ancheta FTC asupra OpenAI ar putea dura luni de zile și nu este clar dacă FTC va lua vreo măsură. Astfel de investigații sunt private și includ adesea depoziții ale directorilor corporativi.
Fostul angajat al Agenției pentru Protecția Consumatorului, Megan Gray, a spus că agenția ar putea să nu aibă cunoștințele necesare pentru a analiza suficient răspunsurile de la OpenAI. „FTC nu are expertiza tehnică pentru a evalua răspunsurile pe care le primim și pentru a vedea cum OpenAI încearcă să ascundă adevărul”, a spus ea.