Săptămâna aceasta Casa Albă a anunţat Acesta a spus că și-a luat „angajamente voluntare” de la șapte companii mari de inteligență artificială pentru a gestiona riscurile prezentate de inteligența artificială.
A face ca companii precum Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI să cadă de acord cu ceva este un pas înainte. Acestea includ rivali puternici cu diferențe subtile, dar importante în modul în care abordează cercetarea și dezvoltarea IA.
De exemplu, Meta este atât de dornic să-și pună modelele AI în mâinile dezvoltatorilor încât Multe dintre ele sunt open source, publicați codul în mod deschis pentru ca oricine să-l folosească. Alte laboratoare, cum ar fi Anthropic, mai precaut abordarea și eliberarea tehnologiei într-un mod mai limitat.
Dar ce înseamnă cu adevărat aceste promisiuni și, având în vedere că companiile de inteligență artificială nu sunt susținute de forța legală, ar putea schimba semnificativ modul în care funcționează?
Având în vedere potențialele riscuri ale reglementării AI, detaliile contează. Deci, să aruncăm o privire mai atentă la ceea ce sa convenit aici și să estimăm impactul potențial.
Angajamentul 1: Companiile se angajează să testeze securitatea internă și externă a sistemelor AI înainte de lansare.
Fiecare dintre aceste companii de inteligență artificială își testează deja modelele de securitate (deseori denumite „red-teaming”) înainte de a le lansa. La un anumit nivel, acesta nu este cu adevărat un efort nou. Și este o promisiune vagă. Nu oferă prea multe detalii despre ce fel de testare este necesară sau cine face testarea.
în Declarație de angajamentCasa Albă a spus că testarea modelelor AI va fi doar „parțial realizată de experți independenți” și se va concentra pe „riscurile AI, cum ar fi biosecuritatea și securitatea cibernetică și implicațiile lor societale mai largi”.
Ar fi o idee bună să încurajăm companiile de inteligență artificială să se angajeze public să continue acest tip de testare și să fie mai transparente cu privire la procesul lor de testare. Și există unele tipuri de riscuri AI, cum ar fi pericolul ca modelele AI să fie utilizate pentru a dezvolta arme biologice, care sunt probabil mai potrivite pentru a fi evaluate de guverne și de personalul militar decât de corporații.
Industria AI folosește o serie de teste standard de siguranță, cum ar fi Centrul de Cercetare a Alinierii Funcționează folosind modele pre-lansate de OpenAI și Anthropic. De asemenea, dorim ca guvernul federal să finanțeze acest tip de testare, care poate fi costisitoare și necesită ingineri cu un grad ridicat de expertiză tehnică. Multe teste de siguranță sunt acum finanțate și supravegheate de companii, ridicând probleme evidente de conflicte de interese.
Angajamentul 2: Ambele companii s-au angajat să facă schimb de informații în industrie și cu guvernele, societatea civilă și mediul academic cu privire la gestionarea riscurilor AI.
Această promisiune este, de asemenea, puțin vagă. Unele dintre aceste companii au publicat deja informații despre modelele lor de inteligență artificială, de obicei în lucrări academice sau postări pe blogul companiei. Mai multe companii, inclusiv OpenAI și Anthropic, au publicat, de asemenea, documente numite „carduri de sistem” care descriu pașii pe care i-au luat pentru a-și face modelele mai sigure.
Dar uneori au ascuns informații, invocând preocupări de securitate. Când OpenAI a lansat cel mai recent model AI, GPT-4, anul acesta, a încălcat convenția din industrie Și am ales să nu dezvăluim cantitatea de date utilizate pentru antrenament sau dimensiunea modelului (metrice cunoscute sub numele de „parametri”). Acesta a spus că a refuzat să publice informațiile din cauza problemelor de concurență și siguranță. Este, de asemenea, genul de companii de tehnologie de date pe care doresc să țină departe de concurenții lor.
Conform acestor noi promisiuni, companiile AI vor fi obligate să dezvăluie astfel de informații și ce se întâmplă dacă acest lucru riscă să accelereze cursa înarmărilor AI?
Bănuiesc că scopul Casei Albe nu este de a forța companiile să dezvăluie numerele parametrilor, ci de a încuraja companiile să facă schimb de informații despre riscurile pe care modelele lor le prezintă (sau nu le prezintă).
Cu toate acestea, un astfel de schimb de informații poate prezenta și riscuri. Dacă echipa de inteligență artificială a Google împiedică utilizarea unui nou model pentru a dezvolta o armă biologică letală în timpul testării înainte de lansare, ar trebui ca aceste informații să fie partajate în afara Google? Riscă oare să ofere atacatorilor rău intenționați idei despre cum să obțină un model mai sigur pentru a îndeplini aceeași sarcină?
Angajamentul 3: Ambele companii se angajează să investească în securitate cibernetică și protecție împotriva amenințărilor interne pentru a proteja greutatea modelelor lor brevetate și nelansate.
Este destul de simplu și necontroversat printre oamenii cu care vorbesc AI. „Greutățile modelului” este un termen tehnic pentru instrucțiunile matematice care conferă unui model AI capabilitățile sale funcționale. Greutatea este ceea ce încerci să furi dacă ești un agent al unui guvern străin (sau al unei companii rivale) care dorește să-și construiască propria versiune a ChatGPT sau un alt produs AI. Și companiile de inteligență artificială au un interes personal să controleze strict acest lucru.
Problema scurgerii de greutate a modelului este deja cunoscută pe scară largă. De exemplu, ponderile pentru modelul de limbaj LLaMA original al Meta sunt: S-a scurs pe 4chan Informații similare au fost disponibile pe alte site-uri la doar câteva zile după publicarea modelului. Având în vedere riscul unor scurgeri ulterioare și interesul potențial al altor țări de a fura această tehnologie de la companiile din SUA, pare logic să se solicite companiilor AI să investească mai mult în propria lor securitate.
Angajamentul 4: Companiile se angajează să faciliteze descoperirea și raportarea vulnerabilităților din sistemele lor AI de către terți.
Nu sunt foarte sigur ce înseamnă asta. Toate companiile AI descoperă vulnerabilități în modelele lor după ce le lansează. De obicei, acest lucru se datorează faptului că utilizatorii încearcă să facă lucruri rele cu modelul sau să ocolească balustradele (un act cunoscut sub numele de „jailbreaking”) în moduri la care compania nu se aștepta.
Angajamentul Casei Albe cere companiilor să stabilească „mecanisme solide de raportare” pentru aceste vulnerabilități, dar nu este clar ce înseamnă asta. Există un buton de feedback în aplicație similar cu cel pe care utilizatorii de Facebook și Twitter îl pot folosi pentru a raporta postările care încalcă regulile? Programele de recompense pentru erori precum OpenAI a început anul acesta Este pentru a recompensa utilizatorii pentru că au găsit defecte în sistem? altceva? Va trebui să așteptăm mai multe detalii.
Angajamentul 5: Ambele companii se angajează să dezvolte mecanisme tehnice solide pentru a se asigura că utilizatorii știu când conținutul a fost generat de AI, cum ar fi sistemele de filigranare.
Aceasta este o idee interesantă, dar care lasă mult loc de interpretare. Până acum, companiile de inteligență artificială s-au străduit să vină cu instrumente pentru a spune dacă oamenii urmăresc conținut generat de inteligență artificială. Există motive tehnice bune pentru acest lucru, dar marea problemă este că oamenii pot deghiza lucrările generate de AI ca fiind ale lor. (Întreabă-ți profesorul de liceu.) Și multe dintre instrumentele prezentate astăzi pot detecta rezultatele AI. chiar nu poti cu o oarecare precizie.
Nu sunt optimist că această problemă va fi vreodată rezolvată complet. Dar este plăcut să vezi companii care se angajează să lucreze la asta.
Angajamentul 6: Companiile se angajează să raporteze public capacitățile, limitările și domeniile de utilizare adecvată și necorespunzătoare a sistemelor lor AI.
Există mult loc pentru un alt angajament care sună înțelept. Cât de des ar trebui companiile să raporteze despre capabilitățile și limitările sistemului? Cât de detaliate ar trebui să fie acele informații? Și având în vedere că multe companii care construiesc sisteme AI sunt surprinse de capacitățile sistemelor lor după fapt, cât de exact ne putem aștepta să putem descrie capabilitățile sistemului în avans?
Angajamentul 7: Ambele companii se angajează să acorde prioritate cercetării privind riscurile sociale pe care le pot prezenta sistemele de inteligență artificială, cum ar fi evitarea prejudecăților și discriminării dăunătoare și protejarea vieții private.
Efortul de a „prioritiza cercetarea” devine vag pe măsură ce efortul se adâncește. Totuși, sunt încrezător că acest angajament va fi bine primit de mulți din comunitatea de etică AI. Ei, ca și cei din domeniul siguranței AI, doresc ca companiile AI să acorde prioritate prevenirii daunelor pe termen scurt, cum ar fi stigmatizarea și discriminarea, față de îngrijorarea cu privire la scenariile apocaliptice.
Dacă sunteți confuz în ceea ce privește diferența dintre „etica AI” și „siguranța AI”, știți că există două facțiuni opuse în comunitatea de cercetare AI, fiecare crezând că cealaltă se concentrează pe prevenirea unui tip greșit de rău.
Angajamentul 8: Ambele companii se angajează să dezvolte și să implementeze sisteme avansate de inteligență artificială pentru a ajuta la abordarea celor mai mari provocări ale societății.
Nu cred că există mulți oameni care ar argumenta că ar trebui introdusă IA avansată. Notă Folosit pentru a aborda cele mai mari provocări ale societății. Casa Albă a identificat prevenirea cancerului și atenuarea schimbărilor climatice drept două domenii asupra cărora dorește ca companiile AI să se concentreze și pot fi de acord cu asta.
Cu toate acestea, complicând oarecum acest obiectiv este că în cercetarea AI, lucrurile aparent frivole se dovedesc adesea a avea implicații mai serioase. O parte din tehnologia din spatele AlphaGo de la DeepMind, un sistem AI antrenat pentru a juca jocul de societate Go s-a dovedit util În ceea ce privește prezicerea structurii tridimensionale a proteinelor, a fost o descoperire majoră care a stimulat cercetarea științifică de bază.
În general, înțelegerea dintre Casa Albă și companiile AI pare mai mult simbolică decât substanțială. Nu există mecanisme de aplicare care să garanteze că companiile onorează aceste promisiuni, multe dintre acestea reflectând măsurile de precauție pe care companiile de inteligență artificială le-au luat deja.
Totuși, acesta este un prim pas rezonabil. Iar faptul că sunt de acord să respecte aceste reguli arată că a învățat din greșelile companiilor tehnologice timpurii care au așteptat să se asocieze cu guvernele până când companiile AI au avut probleme. Acțiunea timpurie este benefică în Washington, cel puțin când vine vorba de reglementarea tehnologiei.