Un grup de lideri ai industriei a avertizat marți că tehnologia de inteligență artificială pe care o construiesc ar putea reprezenta într-o zi o amenințare existențială pentru umanitate și ar trebui considerată un risc social, la fel cu o pandemie sau un război nuclear.
„Reducerea riscului de dispariție indusă de IA ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear”, a spus el. o declarație de propoziție Acesta va fi lansat de Centrul non-profit pentru Siguranța Inteligenței Artificiale. Scrisoarea deschisă a fost semnată de peste 350 de directori, cercetători și ingineri AI.
Printre semnatari se numără directori de la trei companii de IA de top. Demis Hassabis, CEO al Google DeepMind. Dario Amodei, CEO Anthropic.
Jeffrey Hinton și Joshua Bengio, doi dintre cei trei cercetători câștigători de premiul Turing pentru munca lor de pionierat asupra rețelelor neuronale și considerați „nașii” mișcării moderne de inteligență artificială, sunt printre alții în domeniu. Au semnat declarația, precum și cercetători eminenti de la Yann LeCun, de trei ori câștigător al premiului Turing și șeful efortului de cercetare AI al Meta, nu a semnat de marți.)
Declarația vine pe fondul preocupărilor tot mai mari cu privire la potențialul rău al inteligenței artificiale. Progresele recente în așa-numitele modele lingvistice mari, un tip de sistem AI utilizat de ChatGPT și alți chatboți, ar putea vedea în curând AI utilizată la scară pentru a răspândi dezinformare și propagandă. , sau există o îngrijorare tot mai mare că milioane de locuri de muncă cu guler alb vor dispărea. . .
Unii cred că, în cele din urmă, inteligența artificială va fi suficient de puternică pentru a provoca haos la scară socială în câțiva ani, dacă nimic nu încetinește, dar cercetătorii nu au idee cum se va întâmpla asta.
Aceste preocupări sunt împărtășite de mulți lideri din industrie, iar tehnologia pe care o construiesc și, adesea, în competiție acerbă pentru a construi mai repede decât concurenții lor, prezintă riscuri serioase. , se află în poziția neobișnuită de a susține că ar trebui reglementată mai strict.
Luna aceasta, Altman, Hassabis și Amodei s-au întâlnit cu președintele Biden și vicepreședintele Kamala Harris pentru a discuta despre reglementarea AI.și Mărturie la Senat după conferințăAltman a avertizat că riscurile sistemelor AI avansate sunt suficient de severe pentru a justifica intervenția guvernamentală și a cerut reglementarea AI împotriva potențialelor daune.
Dan Hendricks, directorul executiv al Centrului de Siguranță AI, a declarat într-un interviu că scrisoarea deschisă a fost o „coming out” către unii lideri ai industriei (deși nedezvăluite) care și-au exprimat îngrijorarea cu privire la riscurile tehnologiei. în curs de dezvoltare.
„Chiar și în comunitatea AI, există o concepție greșită că doar o mână de oameni sunt catastrofale”, a spus Hendricks. „Dar, în realitate, mulți oameni și-ar fi exprimat în mod privat îngrijorarea cu privire la aceste lucruri”.
Unii sceptici susțin că tehnologia AI este încă prea imatură pentru a reprezenta o amenințare existențială. Când vine vorba de sistemele AI de astăzi, ne îngrijorăm mai mult de problemele pe termen scurt, cum ar fi răspunsurile părtinitoare sau incorecte, decât de pericolele pe termen lung.
Dar unii susțin că AI avansează rapid, depășind deja performanța la nivel uman în unele domenii și va depăși în curând performanța la nivel uman în altele. Ei susțin că tehnologia prezintă semne de competență și înțelegere avansate și nu este capabilă să obțină „inteligență generală artificială” (AGI), un tip de inteligență artificială care egalează sau depășește performanța la nivel uman la o varietate de sarcini. ridică îngrijorări că pleci departe.
și Postarea pe blog de săptămâna trecutăAltman și alți doi directori OpenAI au propus mai multe moduri în care sistemele AI puternice ar putea fi gestionate în mod responsabil. Ei au cerut cooperarea între principalii producători de inteligență artificială, cercetări tehnice suplimentare privind modelele lingvistice mari și înființarea unei agenții internaționale de siguranță a inteligenței artificiale, cum ar fi Agenția Internațională pentru Energie Atomică, care vizează controlul utilizării armelor nucleare.
Altman și-a exprimat, de asemenea, sprijinul pentru o regulă care cere producătorilor de modele AI mari și de ultimă oră să se înregistreze pentru licențe emise de guvern.
Peste 1.000 de ingineri și cercetători au participat în martie a semnat o altă scrisoare deschisă A cerut un moratoriu de șase luni asupra dezvoltării celor mai mari modele de inteligență artificială, invocând îngrijorări legate de o „cursă necontrolată pentru dezvoltarea și implementarea minților digitale din ce în ce mai puternice”.
Scrisoarea, care a fost sponsorizată de Institutul Viitorul Vieții, o altă organizație non-profit axată pe inteligență artificială, și semnată de Elon Musk și alți lideri proeminenți ai tehnologiei, a fost semnată de marile laboratoare de inteligență artificială.
Concizia noii declarații a Centrului pentru Siguranța AI (doar 22 de cuvinte în total) sugerează că, deși opiniile pot diferi cu privire la natura riscurilor specifice și la măsurile luate pentru a preveni apariția acestora, este o declarație generală împotriva riscurilor puternice. menită să reunească profesioniștii AI care împărtășesc preocupări comune. Este un sistem AI, a spus Hendricks.
„Nu am vrut să introducem un meniu foarte mare de 30 de intervenții potențiale”, a spus Hendricks. „Atunci mesajul se diluează”.
Declarația a fost distribuită inițial mai multor experți proeminenți în IA, inclusiv Hinton. Și-a părăsit slujba la Google luna aceasta Este pentru a le permite oamenilor să vorbească mai liber despre potențialul rău al inteligenței artificiale, a spus el. De acolo, a trecut la unele laboratoare majore de AI, unde unii dintre angajații săi s-au înscris.
Cu milioane de oameni apelând la chatbot-uri AI pentru divertisment, socializare și productivitate sporită, tehnologia de bază avansează rapid, crescând urgența avertismentelor de la liderii AI. Sunt aici.
„Dacă această tehnologie nu funcționează, cred că ar putea merge foarte prost”, a spus Altman unei subcomisii din Senat. „Vrem să colaborăm cu guvernul pentru a preveni acest lucru”.