O inteligență artificială prietenoasă (numită și RN sau LPN prietenos ) este o inteligență artificială ipotetică care ar fi mai degrabă pozitivă decât negativă pentru umanitate . Acest concept face parte din etica inteligenței artificiale și este strâns legată de etica mașinilor . În timp ce etica mașinilor este preocupată de modul în care ar trebui să se comporte un agent inteligent artificial , cercetarea prietenoasă a inteligenței artificiale se concentrează asupra modului de a induce acel comportament și de a se asigura că acesta este suficient de limitat.
Termenul a fost inventat de Eliezer Yudkowsky pentru a discuta despre agenții artificiali superinteligenți care implementează în mod fiabil valorile umane. Inteligența artificială manuală a lui Stuart J. Russell și Peter Norvig , Inteligența artificială: o abordare modernă , descrie ideea
Yudkowsky (2008) intră în detalii deosebite despre cum să proiectezi AI prietenos. El susține că blândețea (dorința de a nu face rău oamenilor) trebuie concepută de la început, dar proiectanții trebuie să recunoască faptul că acest design poate fi defect și că robotul va învăța și va evolua în timp. Prin urmare, provocarea constă în proiectarea unui mecanism - definirea unui mecanism pentru evoluția sistemelor de IA care va rămâne prietenos în fața unor astfel de schimbări.
În acest context, termenul „prietenos” este folosit ca terminologie tehnică și definește agenți siguri și utili, nu neapărat „prietenoși” în sens colocvial. Conceptul este utilizat în principal în contextul discuțiilor despre această tehnologie ipotetică care ar avea un impact mare, rapid și dificil de controlat asupra societății umane.
Bazele îngrijorării cu privire la inteligența artificială sunt foarte vechi. Kevin LaGrandeur a arătat că pericolele specifice ale IA pot fi observate în literatura antică referitoare la umanoizi artificiali precum golemul sau proto-roboții lui Gerbert d'Aurillac și Roger Bacon . În aceste povești, inteligența extremă și puterea acestor creații umanoide se opun statutului lor de sclavi (care, prin natura lor, sunt considerați subumani) și provoacă conflicte dezastruoase. În 1942, aceste teme l-au determinat pe Isaac Asimov să creeze „ Trei legi ale roboticii ” - principii încorporate în toți roboții ficțiunii sale, și anume că nu se pot întoarce la creatorii lor și nu le pot permite să facă rău.
Având perspectiva unei IA puternice care se apropie, filosoful Oxford , Nick Bostrom, a spus că sistemele de IA cu obiective care nu sunt exact aceleași sau strâns legate de etica umană sunt inerent periculoase, cu excepția cazului în care nu sunt luate măsuri extreme pentru a asigura securitatea omenirii. . În Superinteligență: căi, pericole, strategii , el afirmă:
Practic, ar trebui să recunoaștem că un „superinteligent” ar fi capabil să-și atingă orice obiective ar fi. Prin urmare, este extrem de important ca obiectivele pe care i le oferim și întregul său sistem de motivație să fie „prietenoase cu oamenii”.
Mai recent, Eliezer Yudkowsky a cerut crearea unei „IA prietenoase” pentru a atenua riscul dezastrelor cauzate de inteligența artificială avansată. El explică faptul că „AI nu te urăște, nu te iubește, dar ești făcut din atomi pe care îi poate folosi pentru altceva. "
Steve Omohundro susține că toate sistemele avansate de IA, cu excepția cazului în care sunt în mod explicit împiedicate, prezintă o serie de îndemnuri / tendințe / dorințe de bază, datorită naturii inerente a sistemelor orientate spre obiective, fără precauții speciale, deoarece AI acționează într-un mod care poate induce neascultare și acțiuni neetice. .
Alexander Wissner-Gross afirmă că AI care doresc să-și maximizeze libertatea de acțiune pot fi văzute ca fiind prietenoase, dacă orizontul lor de planificare este mai lung decât un anumit prag și neprietenoase dacă orizontul lor de planificare este mai scurt decât acest prag.
Luke Muehlhauser, redactor-șef al Machine Intelligence Research Institute , recomandă cercetătorilor în etica mașinilor să accepte ceea ce Bruce Schneier numește „mentalitatea de securitate”: mai degrabă decât să se gândească la modul în care ar funcționa un sistem, imaginați-vă cum ar putea eșua.
Ben Goertzel , un cercetător în inteligență artificială, consideră că AI prietenos nu poate fi creat cu cunoștințele umane actuale. Goertzel sugerează că oamenii pot decide în schimb să creeze o „ AI Nanny ” cu „puteri de inteligență și supraveghere ușor supraomenești” pentru a proteja rasa umană de riscurile catastrofelor , cum ar fi nanotehnologia, și pentru a întârzia dezvoltarea altor inteligențe. ostil) până când se găsesc soluții de securitate.
James Barrat , autorul invenției noastre finale , a sugerat că „ar trebui creat un parteneriat public-privat pentru a reuni lideri în cercetare și dezvoltare pentru a împărtăși idei despre siguranță - ceva de genul Agenției Internaționale pentru Energie Atomică. Dar în parteneriat cu companii”. El îndeamnă cercetătorii AI să convoace o întâlnire similară la Conferința Asilomar privind ADN-ul recombinant , care a abordat riscurile biotehnologiei .
Potrivit lui Gary Marcus , suma anuală de bani cheltuiți pentru dezvoltarea moralului mașinilor este foarte mică.
„Proprietarul său poate ceda controlul asupra a ceea ce Eliezer Yudkowsky numește„ AI prietenos ”, ...”
.