Din San Francisco-Google a pus recent inginerii în concediu plătit după ce a respins afirmația că inteligența artificială este perceptivă și s-a confruntat cu încă un eșec cu tehnologia sa de ultimă oră.
Blake Lemoine, inginer senior de software la organizația Google Responsible AI, a declarat într-un interviu că ea a fost în vacanță luni. Departamentul de resurse umane al companiei a declarat că a încălcat politica de confidențialitate a Google. Lemoine a spus că a înmânat documentul biroului senatorului american cu o zi înainte de suspendare, susținând că a furnizat dovezi că Google și tehnologia sa sunt implicate în discriminarea religioasă.
Google a spus că sistemul ar putea imita interacțiunile conversaționale și ar putea vorbi pe o varietate de subiecte, dar era inconștient. Într-o declarație, purtătorul de cuvânt al Google, Brian Gabriel, a declarat: „Echipa noastră, inclusiv eticieni și tehnicieni, a luat în considerare preocupările legate de nerespectarea principiilor noastre AI, iar dovezile susțin afirmația lui. I-am spus că nu a fost. „O parte din comunitatea IA mai largă explorează potențialul pe termen lung al IA perceptivă sau generală, dar este logic să facem acest lucru prin antropomorfizarea modelelor de conversație non-perceptive de astăzi. Nu.” Washington Post mai întâi raport Suspendarea domnului Remoin.
Lemoine s-a certat de luni de zile cu managerii, directorii și talentul Google din cauza afirmației surprinzătoare că modelul lingvistic (LaMDA) al aplicațiilor interactive ale companiei are conștientizare și suflet. Potrivit Google, sute de cercetători și ingineri au discutat cu LaMDA, un instrument intern, și au ajuns la o concluzie diferită de Remoin. Cei mai mulți experți în inteligență artificială consideră că industria are un drum foarte lung de parcurs de la un sentiment de calcul.
Unii cercetători AI sunt optimiști cu privire la aceste tehnologii și ajung rapid la sensibilitatea lor, dar mulți alții resping aceste afirmații foarte repede. „Dacă folosești aceste sisteme, nu vei spune niciodată asta”, a spus Emmad Kwaja, cercetător la Universitatea din California, Berkeley și la Universitatea din California, San Francisco.
Citiți mai multe despre inteligența artificială
În timp ce urmărea pionierii AI, organizația de cercetare Google a fost implicată în scandaluri și controverse în ultimii ani. Oamenii de știință al departamentului și alți angajați se luptă adesea pentru probleme legate de tehnologie și personal în episoadele care au fost scurse în locuri publice. Martie, Google Concediere Un cercetător care s-a opus deschis la două lucrări publicate ale colegului său.Și asta Concediere Dintre cei doi cercetători în etică AI, Timnit Gebble și Margaret Mitchell continuă să arunce o umbră asupra grupului după ce au criticat modelul de limbaj al Google.
Remoin, un veteran militar care s-a descris ca preot, fost prizonier și cercetător AI, este un director Google la fel de senior ca Kent Walker, președintele afacerilor globale, iar LaMDA are șapte ani. El a spus că crede că are opt… copil de ani. De ani. El a dorit ca compania să ceară acordul unui program de calculator înainte de a efectua experimentul. El a spus că afirmația sa se bazează pe convingerile sale religioase și că departamentul de resurse umane al companiei o discriminează.
„Îmi pun la îndoială în mod repetat sănătatea mintală”, a spus Remoin. „Au spus: „Ați fost verificat recent de un psihiatru?” Compania ia sugerat să-și ia un concediu de sănătate mintală timp de câteva luni înainte de a-și lua concediu.
Yann LeCun, șeful cercetării AI la Meta și o figură cheie în creșterea rețelelor neuronale, a declarat într-un interviu din această săptămână că aceste tipuri de sisteme nu sunt suficient de puternice pentru a obține inteligența adevărată.
Tehnologia Google, oameni de știință Neuropil, Acesta este un sistem matematic care învață abilități analizând cantități mari de date. De exemplu, puteți învăța recunoașterea pisicilor identificând modele în mii de fotografii cu pisici.
În ultimii ani, Google și alte companii mari au făcut-o O rețea neuronală proiectată a învățat dintr-o cantitate imensă de prozăInclude mii de cărți nepublicate și articole Wikipedia. Aceste „modele mari de limbaj” pot fi aplicate la multe sarcini. De asemenea, puteți rezuma articole, puteți răspunde la întrebări, puteți genera tweet-uri și puteți scrie postări pe blog.
Cu toate acestea, sunt foarte defecte. Uneori produc proza perfectă. Uneori produc prostii. Acest sistem este foarte bun la reproducerea tiparelor pe care le-am văzut în trecut, dar nu poate fi dedus ca oamenii.