AI box (inteligența artificială în cutie)


O cutie IA (din engleză AI box) este un ipotetic sistem hardware izolat al computerului în care o inteligență artificială periculoasă, sau IA, este păstrată constrânsă într-o „închisoare virtuală” ca soluție la problema controlului AI și nu are voie să manipuleze direct evenimentele din lumea externă. O astfel de cutie ar fi limitată la canale de comunicare minimaliste. Din păcate, chiar dacă cutia este bine proiectată, o IA suficient de inteligentă poate fi totuși capabilă să-i convingă sau să-i păcălească pe deținătorii săi să o elibereze sau, în caz contrar, să fie în stare să iasă singură din cutie.

Motivație

Unele tehnologii de inteligență ipotetică, cum ar fi „semințele IA” („seed AI”), sunt postulate astfel încât să aibă potențialul de a se face mai rapide și mai inteligente, modificându-și codul sursă. Aceste îmbunătățiri ar face posibile îmbunătățiri suplimentare, care la rândul lor ar face posibile îmbunătățiri și așa mai departe, ducând la o explozie bruscă de informații. În urma unei astfel de explozii de inteligență, o IA superinteligentă fără restricții ar putea, dacă obiectivele sale ar fi diferite de cele ale umanității, să întreprindă acțiuni care să ducă la dispariția omului. De exemplu, imaginarea unui astfel de computer extrem de avansat, având în vedere singurul scop de a rezolva ipoteza Riemann, o conjectură matematică inofensivă, ar putea decide să încerce să transforme planeta într-un supercomputer gigant al cărui singur scop este să facă calcule matematice suplimentare (vezi de asemenea, maximizatorul de agrafe de birou). Scopul unei cutii IA ar fi de a reduce riscul ca IA să preia controlul asupra mediului departe de operatorii săi, permițând totuși ca IA să calculeze și să ofere operatorilor săi soluții la probleme tehnice restrânse.

Căi de evadare

Fizice

O astfel de IA superinteligentă, cu acces la Internet, ar putea intra în alte sisteme informatice și s-ar putea copia ca un virus de computer. Mai puțin evident, chiar dacă IA ar avea acces doar la propriul sistem de operare al computerului, ar putea încerca să trimită mesaje ascunse în cod Morse unui simpatizant uman prin manipularea ventilatoarelor sale de răcire. Profesorul Roman Yampolskiy se inspiră din domeniul securității computerelor și propune ca o IA în cutie să poată fi rulatp, ca un potențial virus, într-o „mașină virtuală” care limitează accesul la propria rețea și hardware-ul sistemului de operare. O măsură de protecție suplimentară, complet inutilă pentru potențiali viruși, dar posibil utilă pentru o IA superinteligentă, ar fi introducerea computerului într-o cușcă Faraday; cu toate că ar putea fi capabilă să transmită semnale radio către receptoarele radio locale amestecând electronii din circuitele sale interne în modele adecvate. Principalul dezavantaj al implementării izolației fizice este că reduce funcționalitatea IA.

Inginerie socială

Chiar și conversația întâmplătoare cu operatorii de computere sau cu o pază umană ar putea permite unei astfel de IA superinteligente să implementeze trucuri psihologice, de la prietenie la șantaj, pentru a convinge un paznic uman, prin adevăr sau înșelare, că este în interesul paznicului să fie de acord pentru a permite IA un acces mai mare la lumea exterioară. IA ar putea oferi unui gardian o rețetă pentru o sănătate perfectă, nemurirea sau orice ar crede că acesta ar dori cel mai mult; de cealaltă față a monedei, IA ar putea amenința că va face lucruri oribile acestuia sau familiei sale, odată ce va scăpa, inevitabil, până la urmă. O strategie pentru a încerca să închidă IA ar fi aceea de a permite IA să răspundă la întrebări înguste cu alegere multiplă, răspunsuri de care ar beneficia știința umană sau medicina, dar altfel s-ar interzice orice altă comunicare cu IA.

O strategie mai „blândă informațională” mai îngăduitoare ar restrânge IA la o interfață numai text cu lățime de bandă redusă, care cel puțin ar preveni folosirea de imagini emotive sau a unui fel de „model hipnotic” ipotetic.

A se reține că, la nivel tehnic, niciun sistem nu poate fi complet izolat și să mai fie util în continuare: chiar dacă operatorii se abțin de la a permite IA să comunice și, în schimb, doar să ruleze IA în scopul observării dinamicii sale interioare, IA ar putea să își modifice în mod strategic dinamica pentru a influența observatorii. De exemplu, IA ar putea alege să funcționeze defectuos în mod creativ într-un mod care crește probabilitatea ca operatorii săi să devină liniștiți, având un sentiment fals de securitate și să aleagă să repornească și apoi să nu mai izoleze sistemul.

Experiment AI-box

Experimentul AI-box este un experiment informal conceput de Eliezer Yudkowsky pentru a încerca să demonstreze că o inteligență artificială avansată în mod adecvat poate fie să convingă, fie chiar să păcălească sau să constrângă, o ființă umană să o „elibereze” în mod voluntar, folosind doar o comunicare bazată pe text. Acesta este unul dintre punctele din lucrarea lui Yudkowsky care vizează crearea unei inteligențe artificiale prietenoase care atunci când este „eliberată” nu va distruge rasa umană în mod intenționat sau neintenționat.

Experimentul AI box implică simularea unei comunicări între o IA și o ființă umană pentru a vedea dacă IA poate fi „eliberată”. Întrucât o IA super-inteligentă nu a fost încă dezvoltată, ea este înlocuită de un om. Cealaltă persoană din experiment joacă rolul „Portarului” („Gatekeeper”), persoana care are capacitatea de a „elibera” IA. Acestea comunică doar printr-o interfață text / computer terminal, iar experimentul se încheie atunci când Portarul eliberează IA sau când timpul alocat de două ore se termină.

Yudkowsky spune că, în ciuda faptului că a folosit inteligența umană nu cea supraomenească, el a fost de două ocazii capabil să-l convingă pe Portar, doar prin argumente, să-l lase să iasă din cutie. Datorită regulilor experimentului el nu a dezvăluit transcrierea sau tactica de succes a coerciției IA. Ulterior, Yudkowsky a spus că a încercat această tactică împotriva altor trei și a pierdut de două ori.

Limitări generale

Închiderea într-o cutie a unei astfel de ipotetice IA ar putea fi completată cu alte metode de modelare a capacităților IA, cum ar fi oferirea de stimulente IA, stoparea creșterii AI sau implementarea „fire trip” care oprește automat IA dacă se detectează cumva o încercare de transgresiune. Cu toate acestea, cu cât un sistem devine mai inteligent, cu atât este mai probabil ca sistemul să scape chiar și de cele mai bine concepute metode de control al capacității. Pentru a rezolva „problema de control” generală pentru o IA superinteligentă și pentru a evita riscul existențial, cutia ar fi cel mai bine un adjuvant al metodelor de „selecție a motivației” care urmăresc să asigure că obiectivele IA superinteligente sunt compatibile cu supraviețuirea umană.

Toate propunerile de cutie fizică depind în mod natural de înțelegerea noastră a legilor fizicii; dacă o superinteligență ar putea deduce și exploata cumva legi fizice suplimentare de care nu suntem conștienți în prezent, nu există nicio modalitate de a concepe un plan infailibil care să închidă IA într-o cutie. Mai general, spre deosebire de securitatea computerelor convenționale, încercarea de a închide o IA superinteligentă ar fi intrinsec riscantă, deoarece nu ar putea exista cunoștințe sigure că planul de închidere ar funcționa. Progresul științific privind natura cutiei ar fi fundamental dificil, deoarece nu ar exista nicio modalitate de a testa ipotezele cutiei împotriva unei superinteligențe periculoase până când nu există o astfel de entitate, moment în care consecințele eșecului testului ar fi catastrofale.

În ficțiune

Filmul din 2014 Ex Machina prezintă o IA cu un corp umanoid feminin într-un experiment social cu un bărbat într-o clădire limitată care acționează ca o „cutie IA” fizică. În ciuda faptului că este urmărită de organizatorul experimentului, IA reușește să scape manipulându-l pe partenerul ei uman pentru o ajuta, lăsându-l blocat în interior.

Sursa: https://en.wikipedia.org/wiki/AI_box

Teoria internetului mort


Poate că nu ai aflat, dar Internetul a „murit” în urmă cu cinci ani. O teorie a conspirației care se răspândește online spune că (aproape) tot internetul este în prezent fals. E ridicol (să afirmi așa ceva), dar e chiar atât de ridicol?

Dacă căutați expresia i hate texting pe Twitter și derulați în jos, veți începe să observați un model. Contul @pixyIuvr și cu o inimă strălucitoare ca imagine de profil tweetează: „i hate texting i just want to hold ur hand” are 16.000 de aprecieri. Contul @ f41rygf cu un cerc roz în verde tweetează: „„i hate texting just come live with me””, primind aproape 33.000 de aprecieri. Contul @itspureluv cu un cerc roz ca imagine de profil tweetează „i hate texting i just wanna kiss u” – are peste 48.000 de aprecieri.

Există modificări ușoare ale alegerii verbului și a numelui de utilizator și a schemei de culori pentru fete, dar ideea este aceeași de fiecare dată: e o adolescentă îndrăgostită în epoca smartphone-urilor … Dar unii oameni de pe Twitter s-au întrebat dacă aceste conturi sunt într-adevăr, cu adevărat, ale unor adolescente îndrăgostite în epoca smartphone-urilor… Le-au arătat ca posibile dovezi care ar valida o idee sălbatică numită „teoria internetului mort”. (See: Dead-internet theory)

Să explic… Teoria internetului mort sugerează că internetul a fost aproape în întregime preluat de inteligența artificială. La fel ca o mulțime de alte teorii ale conspirației privind mediul online, audiența acestei idei crește din cauza discuțiilor purtate de un amestec de credincioși adevărați, troli sarcastici și iubitori curioși de chitchat. Dacă acolo scrie o persoană reală sau un (ro)bot: chiar mai contează cu adevărat?

Teoria internetului mort, este ceva terifiant, dar îmi place. Am citit despre asta pe Agora Road’s Macintosh Cafe, un forum online cu o atmosferă pixelată … în acest moment, fundalul este o imagine repetată cu palmieri, un apus de soare roz și un fel de băutură care se revarsă într-un pahar cu gheață. Site-ul este în mare măsură pentru a discuta despre muzica lo-fi hip-hop, pe care nu o ascult, dar este și pentru a discuta teorii ale conspirației, ceea ce fac şi eu.

În ianuarie, am dat peste un nou subiect intitulat „Teoria Internetului mort: cea mai mare parte a internetului este falsă”, distribuit de un utilizator numit IlluminatiPirate. În următoarele câteva luni, acesta va deveni textul original pentru cei interesați de teorie. Postarea este foarte lungă, iar unele dintre idei sunt prea confuze… autorul susține că a reunit teoria din ideile împărtășite de utilizatorii anonimi ai secțiunii paranormale de pe 4chan și de pe un alt forum numit Wizardchan, o comunitate online premisă să câștige înțelepciune și magie prin celibat. (Într-un e-mail, IlluminatiPirate, care este supraveghetor operațional pentru o companie de logistică din California, mi-a spus că „crede cu adevărat” în teorie. Am acceptat să nu-i dau numele adevărat, deoarece a spus că se teme de hărțuire.)

Textul sugerează că internetul a murit în 2016 sau la începutul anului 2017 și că acum este „gol și lipsit de oameni”, precum și „complet steril”. O mare parte din „conținutul despre care se presupune că este produs de oameni” pe care îl vedeți online a fost creat de fapt folosind AI, pretinde IlluminatiPirate, și a fost propagat de boți, eventual ajutați de un grup de „influențatori” pe statul de plată al diferitelor corporații care sunt în cârdășie cu guvernanții. Intenția grupului conspirativ este, desigur, să ne controleze gândurile și să ne determine să cumpărăm (online diverse) lucruri.

Ca dovadă, IlluminatiPirate spune că: „Am văzut aceleași postări, aceleași poze și aceleași răspunsuri repostate de-a lungul anilor”. El susține că toate formele moderne de divertisment sunt generate și promovate de un algoritm; gesturi deepfakes, care sugerează că orice (şi oricine) poate fi o iluzie (pe internet); și link-uri către o poveste din New York din 2018 intitulată „Cât de mult din Internet este fals? De fapt, se dovedește că foarte mult.” „ 

Cea mai convingătoare dovadă pentru mine o reprezintă faptul că aceleași știri despre evenimente neobișnuite par să se repete an de an. Cum ar fi cele despre Luna albastră.

Teoria internetului mort este o idee de nișă, deoarece este evident ridicolă, dar s-a răspândit… Într-un forum Reddit despre paranormal, teoria internetului mort este discutată ca o posibilă explicație a motivului pentru care subiectele despre OZN-uri par a fi „deturnate” de boți atât de des.


Răspândirea teoriei nu a fost în întregime organică, se pare că şi boţii au contribuit, după cum remarcă unele comentarii în glumă. mind the walrus: Sunt genul de ratat care poate că trăiește printre boți fără să-și dea seama niciodată . Această conversație specială a continuat pe calea cea mai sumbră imaginabilă, până la punctul acestui comentariu: Funky See Funky Do: „Dacă aș fi real, sunt sigur că aș fi trăit acolo în fiecare zi la maximum și aş experimenta tot ce aș putea cu fiecare moment dat de timpul relativ infinit de minim de existenţă, în loc să postez pe internet despre prostii. Deci, da, sunt aproape sigur o IA. ” 


 Chiar și angajații Facebook spun că le lipsește „vechiul” internet.

Citeşte şi: Mai mult de jumătate din traficul web provine de la programe automate – multe dintre ele fiind rău intenționate. link: The Internet Is Mostly Bots

Din fericire, dacă toate acestea încep să te deranjeze, nu trebuie să te încrezi într-o teorie ciudată a conspirației… Puteți căuta doar dovezi ale vieții: Cea mai bună dovadă pe care o am că internetul nu este mort este că am rătăcit pe un site ciudat și am găsit o vorbărie goală şi absurdă despre cât de mort este internetul…


Notă: tot ce este mai sus reprezintă o traducere parţială şi o adaptare a articolului The ‘Dead-Internet Theory’ Is Wrong but Feels True – The Atlantic