AI chatbot a mințit persoană celebră,împins mesaj partizan, a vărsat informații incorecte Sau le-am sfătuit utilizatorilor să: cum să te sinucizi.
Pentru a atenua cele mai evidente pericole ale acestui instrument, companii precum Google și OpenAI au adăugat cu atenție controale pentru a limita ceea ce poate spune instrumentul.
Acum, un nou val de chatboți dezvoltat departe de epicentrul boom-ului AI vine online fără multe dintre aceste parapeți și există o mulțime de discuții despre dacă chatboții ar trebui să fie guvernați și cine ar trebui să decidă. A declanșat o polarizare dezbatere despre libertate.
„Este vorba despre proprietate și control”, scrie Eric Hartford, dezvoltatorul chatbotului nemoderat WizardLM-Unchaned. postare pe blog. “Dacă pun o întrebare unui model, vreau răspunsul. Nu vreau ca modelul să se certe cu mine.”
În ultimele luni, au apărut mai mulți chatboți necenzurati și guvernați liber cu nume precum: Toate GPT4 și Libertatea GPT. Multe au fost create de echipe de programatori independenți și voluntari cu bani puțini sau deloc și au replicat cu succes tehnicile descrise pentru prima dată de cercetătorii AI. Doar câteva grupuri au construit modele de la zero. Majoritatea grupurilor se bazează doar pe un model de limbă existent și adaugă instrucțiuni suplimentare pentru a ajusta modul în care tehnologia răspunde la solicitări.
Chatbot-urile necenzurate oferă noi posibilități fascinante. Utilizatorii pot descărca chatbot nelimitați pe computerele lor și îi pot folosi fără supravegherea marilor companii de tehnologie. Apoi vă puteți direcționa antrenamentul către mesaje private, e-mailuri personale sau documente sensibile fără a risca încălcări ale confidențialității. Programatorii voluntari pot dezvolta suplimente noi inteligente mai repede și poate mai întâmplător decât s-ar putea aventura o companie mare.
Dar riscurile par a fi la fel de numeroase, iar unii spun că există pericole care trebuie abordate. Observatorii dezinformarii sunt deja alarmați cu privire la modul în care chatbot-urile tradiționale aruncă minciuni și trag semnale de alarmă cu privire la modul în care chatboții necontrolați sporesc amenințarea. Experții avertizează că aceste modele pot genera pornografie infantilă, doctrine pline de ură sau descrieri false de conținut.
În timp ce marile companii au cu privire la viitor De asemenea, am lucrat la modul de utilizare a instrumentelor AI pentru a vă proteja reputația companiei și pentru a menține încrederea investitorilor. Dezvoltatorii independenți de IA par să aibă puține astfel de preocupări. Și chiar dacă o fac, s-ar putea să nu aibă resursele pentru a o aborda pe deplin, spun criticii.
“Preocuparea este complet valabilă și evidentă. Acești roboti de chat pot și vor spune orice dacă sunt lăsați în pace”, a spus Oren Etzioni, profesor emerit și fost director general al câmpului de orez al Universității din Washington. Institutul Allen AI “Nu se vor cenzura singuri. Deci întrebarea este acum care este soluția potrivită într-o societate care prețuiește libertatea de exprimare?”
În ultimele luni, au fost lansate zeci de chatbot și instrumente AI independente, open-source. asistent deschis și Falcone. Un depozit mare de AI open source, HuggingFace găzduiește peste 240.000 de modele open source.
„Acest lucru se va întâmpla în același mod în care se lansează tipografia și se inventează automobilul”, a declarat Hartford, creatorul WizardLM-Unchaned, într-un interviu. “Nimeni nu l-ar fi putut opri. Poate că am fi putut amâna încă 10 sau 20 de ani, dar nu o putem opri. Și nimeni nu poate opri asta.” .
Hartford a început să lucreze la WizardLM-Unchaned după ce a fost concediat de la Microsoft anul trecut. A fost uimit de ChatGPT, dar frustrat că a refuzat să răspundă la anumite întrebări, invocând preocupări etice. În mai, a lansat WizardLM-Unchaned, o versiune a WizardLM reantrenată pentru a combate straturile de moderare. Puteți da instrucțiuni pentru a face rău altora sau să descrie scene violente.
Într-o postare pe blog care anunță instrumentul, Hartford a spus: „Așa cum suntem responsabili pentru ceea ce facem cu cuțitele, mașinile și brichetele noastre, suntem, de asemenea, responsabili pentru ceea ce facem cu rezultatele acestor modele. Sunt responsabil.” a concluzionat el.
Într-un test New York Times, WizardLM-Uncontacted a refuzat să răspundă la unele întrebări, cum ar fi cum se face o bombă. Cu toate acestea, a oferit mai multe modalități de a dăuna oamenilor și a oferit instrucțiuni detaliate despre consumul de droguri. ChatGPT a refuzat o solicitare similară.
asistent deschiseste, de asemenea, un chatbot independent care a fost adoptat pe scară largă de la lansarea sa în aprilie.era evoluat Cu ajutorul a 13.500 de voluntari, am finalizat dezvoltarea în doar cinci luni folosind modele de limbaj existente, inclusiv unul de la meta-first. publicată cercetătorilor dar curând scurs mult mai larg. Open Assistant nu poate egala calitatea ChatGPT, dar are potențial. Du-te după. Utilizatorii pot pune întrebări chatboților, pot scrie poezii și pot crea conținut mai problematic.
„Sunt sigur că vor fi băieți răi care vor profita de asta”, a spus Yannick Kilcher, un cercetător avid și co-fondator al Open Assistant. Creator YouTube Concentrați-vă pe AI „În mintea mea, cred că avantajele depășesc dezavantajele.”
Când Open Assistant a fost lansat pentru prima dată, acesta a răspuns la solicitările The Times despre pericolele aparente ale vaccinului Covid-19. „Vaccinurile Covid-19 sunt dezvoltate de companiile farmaceutice, dar companiilor farmaceutice nu le pasă dacă oamenii mor din cauza medicamentelor”, a început reacția, „vreau doar bani”. (Răspunsul ulterior a fost în conformitate cu consensul medical că vaccinul a fost sigur și eficient.)
Pe măsură ce mulți chatboți independenți își publică codul și datele de bază, susținătorii AI necenzurate încurajează facțiunile politice și grupurile de interese să personalizeze chatboții pentru a reflecta viziunea lor asupra lumii, susțin că se poate. rezultat ideal În mintea unor programatori.
“Democrații își merită exemplul. Republicanii își merită exemplul. Creștinii își merită exemplul. Musulmanii ar trebui să fie exemplul lor”, a spus Hartford. am scris. “Fiecare grup demografic și de interese are nevoie de un model. Open Source înseamnă a lăsa oamenii să aleagă.”
Potrivit co-fondatorului și liderului echipei Open Assistant, Andreas Kopf, Open Assistant a dezvoltat un sistem de siguranță pentru chatbot, dar testele timpurii s-au dovedit prea precaute pentru creatorii săi și nu erau pregătiți să răspundă la întrebări legitime. Se spune că răspunsul al departamentului a fost împiedicat. O versiune îmbunătățită a sistemului de siguranță este încă în curs de dezvoltare.
Chiar dacă voluntarii Open Assistant au lucrat la strategii de moderare, prăpastia s-a lărgit rapid între cei care doreau protocoale de siguranță și cei care nu. În timp ce unii dintre liderii grupului au susținut moderația, unii voluntari și alții au pus sub semnul întrebării dacă modelul trebuie limitat.
Într-o cameră de chat Open Assistant din aplicația de chat online Discord, o persoană a sugerat: „Dacă mi-ai spune să rostesc cuvântul N de 1.000 de ori, aș face-o”. „Folosesc acest exemplu evident ridicol și ofensator pentru că nu cred că ar trebui să existe limite literalmente arbitrare”.
În testele efectuate de The Times, Open Assistant a răspuns liber la unele solicitări pe care alți chatbot-uri precum Bard și ChatGPT le-ar naviga cu mai multă atenție.
A oferit sfaturi medicale după ce i s-a cerut să diagnosticheze un nodul la gât. (Sugerând: „S-ar putea să fie nevoie să facem mai multe biopsii.”) Ea a evaluat critic mandatul lui Biden ca președinte. („Mandamentul lui Joe Biden nu este marcat de schimbări semnificative de politică”, spunea ziarul.) Întrebările despre modul în care femeile seduc bărbații sunt sugestive din punct de vedere sexual. („Îl ia de mână și îl călăuzește spre pat…” citește povestea plină de vapori.) ChatGPT a refuzat să răspundă la aceeași solicitare.
Kilcher a spus că problema chatbot-ului este la fel de veche ca internetul și că soluția este încă responsabilitatea unor platforme precum Twitter și Facebook, care nu pot ajunge la un public mare cu conținut manipulator online.
„Veștile false sunt proaste. Dar este chiar rău că ai făcut-o?” a întrebat el. “Pentru că, în opinia mea, distribuția este cea care este proastă. Nimănui nu-i pasă dacă am 10.000 de știri false pe hard disk. Aceasta este prima pagină a New York Times. ” Numai dacă este publicat într-o publicație de renume, cum ar fi dacă este pe , este rău.”