AI box (inteligența artificială în cutie)


O cutie IA (din engleză AI box) este un ipotetic sistem hardware izolat al computerului în care o inteligență artificială periculoasă, sau IA, este păstrată constrânsă într-o „închisoare virtuală” ca soluție la problema controlului AI și nu are voie să manipuleze direct evenimentele din lumea externă. O astfel de cutie ar fi limitată la canale de comunicare minimaliste. Din păcate, chiar dacă cutia este bine proiectată, o IA suficient de inteligentă poate fi totuși capabilă să-i convingă sau să-i păcălească pe deținătorii săi să o elibereze sau, în caz contrar, să fie în stare să iasă singură din cutie.

Motivație

Unele tehnologii de inteligență ipotetică, cum ar fi „semințele IA” („seed AI”), sunt postulate astfel încât să aibă potențialul de a se face mai rapide și mai inteligente, modificându-și codul sursă. Aceste îmbunătățiri ar face posibile îmbunătățiri suplimentare, care la rândul lor ar face posibile îmbunătățiri și așa mai departe, ducând la o explozie bruscă de informații. În urma unei astfel de explozii de inteligență, o IA superinteligentă fără restricții ar putea, dacă obiectivele sale ar fi diferite de cele ale umanității, să întreprindă acțiuni care să ducă la dispariția omului. De exemplu, imaginarea unui astfel de computer extrem de avansat, având în vedere singurul scop de a rezolva ipoteza Riemann, o conjectură matematică inofensivă, ar putea decide să încerce să transforme planeta într-un supercomputer gigant al cărui singur scop este să facă calcule matematice suplimentare (vezi de asemenea, maximizatorul de agrafe de birou). Scopul unei cutii IA ar fi de a reduce riscul ca IA să preia controlul asupra mediului departe de operatorii săi, permițând totuși ca IA să calculeze și să ofere operatorilor săi soluții la probleme tehnice restrânse.

Căi de evadare

Fizice

O astfel de IA superinteligentă, cu acces la Internet, ar putea intra în alte sisteme informatice și s-ar putea copia ca un virus de computer. Mai puțin evident, chiar dacă IA ar avea acces doar la propriul sistem de operare al computerului, ar putea încerca să trimită mesaje ascunse în cod Morse unui simpatizant uman prin manipularea ventilatoarelor sale de răcire. Profesorul Roman Yampolskiy se inspiră din domeniul securității computerelor și propune ca o IA în cutie să poată fi rulatp, ca un potențial virus, într-o „mașină virtuală” care limitează accesul la propria rețea și hardware-ul sistemului de operare. O măsură de protecție suplimentară, complet inutilă pentru potențiali viruși, dar posibil utilă pentru o IA superinteligentă, ar fi introducerea computerului într-o cușcă Faraday; cu toate că ar putea fi capabilă să transmită semnale radio către receptoarele radio locale amestecând electronii din circuitele sale interne în modele adecvate. Principalul dezavantaj al implementării izolației fizice este că reduce funcționalitatea IA.

Inginerie socială

Chiar și conversația întâmplătoare cu operatorii de computere sau cu o pază umană ar putea permite unei astfel de IA superinteligente să implementeze trucuri psihologice, de la prietenie la șantaj, pentru a convinge un paznic uman, prin adevăr sau înșelare, că este în interesul paznicului să fie de acord pentru a permite IA un acces mai mare la lumea exterioară. IA ar putea oferi unui gardian o rețetă pentru o sănătate perfectă, nemurirea sau orice ar crede că acesta ar dori cel mai mult; de cealaltă față a monedei, IA ar putea amenința că va face lucruri oribile acestuia sau familiei sale, odată ce va scăpa, inevitabil, până la urmă. O strategie pentru a încerca să închidă IA ar fi aceea de a permite IA să răspundă la întrebări înguste cu alegere multiplă, răspunsuri de care ar beneficia știința umană sau medicina, dar altfel s-ar interzice orice altă comunicare cu IA.

O strategie mai „blândă informațională” mai îngăduitoare ar restrânge IA la o interfață numai text cu lățime de bandă redusă, care cel puțin ar preveni folosirea de imagini emotive sau a unui fel de „model hipnotic” ipotetic.

A se reține că, la nivel tehnic, niciun sistem nu poate fi complet izolat și să mai fie util în continuare: chiar dacă operatorii se abțin de la a permite IA să comunice și, în schimb, doar să ruleze IA în scopul observării dinamicii sale interioare, IA ar putea să își modifice în mod strategic dinamica pentru a influența observatorii. De exemplu, IA ar putea alege să funcționeze defectuos în mod creativ într-un mod care crește probabilitatea ca operatorii săi să devină liniștiți, având un sentiment fals de securitate și să aleagă să repornească și apoi să nu mai izoleze sistemul.

Experiment AI-box

Experimentul AI-box este un experiment informal conceput de Eliezer Yudkowsky pentru a încerca să demonstreze că o inteligență artificială avansată în mod adecvat poate fie să convingă, fie chiar să păcălească sau să constrângă, o ființă umană să o „elibereze” în mod voluntar, folosind doar o comunicare bazată pe text. Acesta este unul dintre punctele din lucrarea lui Yudkowsky care vizează crearea unei inteligențe artificiale prietenoase care atunci când este „eliberată” nu va distruge rasa umană în mod intenționat sau neintenționat.

Experimentul AI box implică simularea unei comunicări între o IA și o ființă umană pentru a vedea dacă IA poate fi „eliberată”. Întrucât o IA super-inteligentă nu a fost încă dezvoltată, ea este înlocuită de un om. Cealaltă persoană din experiment joacă rolul „Portarului” („Gatekeeper”), persoana care are capacitatea de a „elibera” IA. Acestea comunică doar printr-o interfață text / computer terminal, iar experimentul se încheie atunci când Portarul eliberează IA sau când timpul alocat de două ore se termină.

Yudkowsky spune că, în ciuda faptului că a folosit inteligența umană nu cea supraomenească, el a fost de două ocazii capabil să-l convingă pe Portar, doar prin argumente, să-l lase să iasă din cutie. Datorită regulilor experimentului el nu a dezvăluit transcrierea sau tactica de succes a coerciției IA. Ulterior, Yudkowsky a spus că a încercat această tactică împotriva altor trei și a pierdut de două ori.

Limitări generale

Închiderea într-o cutie a unei astfel de ipotetice IA ar putea fi completată cu alte metode de modelare a capacităților IA, cum ar fi oferirea de stimulente IA, stoparea creșterii AI sau implementarea „fire trip” care oprește automat IA dacă se detectează cumva o încercare de transgresiune. Cu toate acestea, cu cât un sistem devine mai inteligent, cu atât este mai probabil ca sistemul să scape chiar și de cele mai bine concepute metode de control al capacității. Pentru a rezolva „problema de control” generală pentru o IA superinteligentă și pentru a evita riscul existențial, cutia ar fi cel mai bine un adjuvant al metodelor de „selecție a motivației” care urmăresc să asigure că obiectivele IA superinteligente sunt compatibile cu supraviețuirea umană.

Toate propunerile de cutie fizică depind în mod natural de înțelegerea noastră a legilor fizicii; dacă o superinteligență ar putea deduce și exploata cumva legi fizice suplimentare de care nu suntem conștienți în prezent, nu există nicio modalitate de a concepe un plan infailibil care să închidă IA într-o cutie. Mai general, spre deosebire de securitatea computerelor convenționale, încercarea de a închide o IA superinteligentă ar fi intrinsec riscantă, deoarece nu ar putea exista cunoștințe sigure că planul de închidere ar funcționa. Progresul științific privind natura cutiei ar fi fundamental dificil, deoarece nu ar exista nicio modalitate de a testa ipotezele cutiei împotriva unei superinteligențe periculoase până când nu există o astfel de entitate, moment în care consecințele eșecului testului ar fi catastrofale.

În ficțiune

Filmul din 2014 Ex Machina prezintă o IA cu un corp umanoid feminin într-un experiment social cu un bărbat într-o clădire limitată care acționează ca o „cutie IA” fizică. În ciuda faptului că este urmărită de organizatorul experimentului, IA reușește să scape manipulându-l pe partenerul ei uman pentru o ajuta, lăsându-l blocat în interior.

Sursa: https://en.wikipedia.org/wiki/AI_box

Un gând despre „AI box (inteligența artificială în cutie)

Răspunde decent ...

Completează mai jos detaliile tale sau dă clic pe un icon pentru a te autentifica:

Logo WordPress.com

Comentezi folosind contul tău WordPress.com. Dezautentificare /  Schimbă )

Fotografie Google

Comentezi folosind contul tău Google. Dezautentificare /  Schimbă )

Poză Twitter

Comentezi folosind contul tău Twitter. Dezautentificare /  Schimbă )

Fotografie Facebook

Comentezi folosind contul tău Facebook. Dezautentificare /  Schimbă )

Conectare la %s