Inteligența artificială (AI) a progresat într-un ritm uimitor în ultimii ani. Unii oameni de știință se îndreaptă acum spre dezvoltarea superinteligenței artificiale (ASI) – o formă de inteligență artificială care nu numai că ar depăși inteligența umană, dar nu ar fi constrânsă de ritmul de învățare al oamenilor. Dar dacă această piatră de hotar nu este doar o realizare remarcabilă? Dacă reprezintă, de asemenea, un blocaj formidabil în dezvoltarea tuturor civilizațiilor, un blocaj atât de dificil încât le amenință supraviețuirea pe termen lung?
Cunoscutul cercetător Michael Garrett, de la Universitatea din Manchester, susține, într-o lucrare recent publicată în Acta Astronautica, ca AI (inteligenta artificială) ar putea fi „marele filtru” al universului – un prag atât de dificil de trecut încât împiedică majoritatea formelor de viață să evolueze în civilizații spațiale?
Acesta este un concept care ar putea explica de ce căutarea inteligenței extraterestre (Seti) nu a detectat încă semnăturile unor civilizații tehnologice avansate în alte părți ale galaxiei.
Ipoteza marelui filtru este, în cele din urmă, o soluție propusă la paradoxul Fermi. Aceasta se întreabă de ce, într-un univers suficient de vast și de vechi pentru a găzdui miliarde de planete potențial locuibile, nu am detectat niciun semn de civilizație extraterestră.
Ipoteza sugerează că există obstacole insurmontabile în calendarul evolutiv al civilizațiilor care le împiedică să evolueze spre entități spațiale.
,,Eu cred că apariția ASI ar putea fi un astfel de filtru. Progresul rapid al inteligenței artificiale, care ar putea duce la ASI, ar putea coincide cu o fază critică în dezvoltarea unei civilizații – tranziția de la o specie monoplanetară la una multiplanetară.
Acesta este punctul în care multe civilizații ar putea eșua, deoarece IA avansează mult mai repede decât capacitatea noastră de a o controla sau de a explora și popula în mod durabil sistemul nostru solar”, afirmă expertul.
Legătura dintre Churchill şi extratereştri. Suntem singuri în Univers?
Cum intrăm în contact cu extratereștrii?
Provocarea cu IA, și în special cu ASI, constă în natura sa autonomă, de auto-amplificare și îmbunătățire. Ea posedă potențialul de a-și spori propriile capacități cu o viteză care depășește propriile noastre termene de evoluție fără IA.
Potențialul ca ceva să meargă prost este enorm, ducând la prăbușirea atât a civilizațiilor biologice, cât și a civilizațiilor AI înainte ca acestea să aibă șansa de a deveni multiplanetare.
De exemplu, dacă națiunile se bazează din ce în ce mai mult pe sistemele autonome de inteligență artificială care concurează între ele și cedează puterea acestora, capacitățile militare ar putea fi folosite pentru a ucide și a distruge la o scară fără precedent. Acest lucru ar putea duce la distrugerea întregii noastre civilizații, inclusiv a sistemelor de inteligență artificială în sine.
,,În acest scenariu, estimez că longevitatea tipică a unei civilizații tehnologice ar putea fi mai mică de 100 de ani. Acesta este aproximativ timpul dintre posibilitatea de a recepționa și de a emite semnale între stele (1960) și apariția estimată a ASI (2040) pe Pământ.
Acest timp este alarmant de scurt, dacă îl raportăm la scara temporală cosmică de miliarde de ani.
Această estimare, atunci când este introdusă în versiunile optimiste ale ecuației lui Drake – care încearcă să estimeze numărul de civilizații extraterestre active și comunicative din Calea Lactee – sugerează că, la un moment dat, există doar o mână de civilizații inteligente. În plus, la fel ca noi, activitățile lor tehnologice relativ modeste ar putea să le facă destul de dificil de detectat”, afirmă expertul.
Giganții din Egiptul antic. Piramidele au fost construite de oameni de 5 metri înălțime?
Semnal de alarmă
Această cercetare nu este pur și simplu o poveste de avertizare cu privire la o potențială condamnare. Ea servește drept un apel de trezire pentru ca omenirea să stabilească cadre de reglementare solide pentru a ghida dezvoltarea inteligenței artificiale, inclusiv a sistemelor militare.
Nu este vorba doar de a preveni utilizarea răuvoitoare a IA pe Pământ; este vorba, de asemenea, de a asigura că evoluția IA se aliniază cu supraviețuirea pe termen lung a speciei noastre. Aceasta sugerează că trebuie să investim mai multe resurse pentru a deveni cât mai curând posibil o societate multiplanetară – un obiectiv care a rămas în adormire încă din zilele de glorie ale proiectului Apollo, dar care a fost reaprins în ultima vreme de progresele realizate de companiile private.
După cum a remarcat istoricul Yuval Noah Harari, nimic în istorie nu ne-a pregătit pentru impactul introducerii pe planeta noastră a unor entități non-conștiente și super-inteligente. Recent, implicațiile procesului de luare a deciziilor autonome ale inteligenței artificiale au dus la apeluri din partea unor lideri proeminenți din domeniu pentru un moratoriu asupra dezvoltării inteligenței artificiale, până când va putea fi introdusă o formă responsabilă de control și reglementare.
Dar chiar dacă fiecare țară ar fi de acord să respecte reguli și reglementări stricte, organizațiile necinstite vor fi greu de ținut în frâu.
Integrarea inteligenței artificiale autonome în sistemele de apărare militară trebuie să fie un domeniu de interes deosebit. Există deja dovezi că oamenii vor renunța în mod voluntar la o putere semnificativă în favoarea unor sisteme din ce în ce mai capabile, deoarece acestea pot îndeplini sarcini utile mult mai rapid și mai eficient fără intervenția umană.
Prin urmare, guvernele sunt reticente în a reglementa acest domeniu, având în vedere avantajele strategice pe care le oferă IA, așa cum s-a demonstrat recent și în mod devastator în Gaza.
,,Acest lucru înseamnă că deja ne apropiem periculos de mult de o prăpastie în care armele autonome operează dincolo de limitele etice și ocolesc dreptul internațional.
Într-o astfel de lume, cedarea puterii către sistemele de inteligență artificială pentru a obține un avantaj tactic ar putea declanșa, fără să vrea, un lanț de evenimente extrem de distructive care se intensifică rapid. Într-o clipită, inteligența colectivă a planetei noastre ar putea fi anihilată”, afirmă Michael Garrett.
Omenirea se află într-un punct crucial al traiectoriei sale tehnologice. Acțiunile noastre de acum ar putea determina dacă vom deveni o civilizație interstelară durabilă sau dacă vom ceda în fața provocărilor provocate de propriile noastre creații.
Folosirea Seti ca o lentilă prin care putem examina dezvoltarea noastră viitoare adaugă o nouă dimensiune discuției despre viitorul IA. Depinde de noi toți să ne asigurăm că, atunci când ajungem la stele, nu o facem ca o poveste de avertizare pentru alte civilizații, ci ca un far de speranță – o specie care a învățat să prospere alături de IA.
A fost vizitat Pământul de extratereștri? O nouă ipoteză științifică