Comentariu IN: Din ce în ce mai mult, în societatea hibridă trăim într-o stare de anxietate și stres tehnologic. De ce? Pentru că această stare survine nu numai datorită faptului că nu cunoaștem și nu suntem adaptați în a opera cu noile tehnologii fundamentate pe inteligența artificială. Ci și datorită faptului că însăși cei ce au expertiză în crearea și utilizarea cu AI susțin că pe măsură ce AI evoluează spre AIG și alte forme de inteligență, viitorul civilizației umane într-o eră hiper-tehnologizată devine impredictibil. Și acum câteva cuvinte despre incertitudinea tehnologică:
I. Ce este incertitudinea tehnologică?
Incertitudinea tehnologică nu înseamnă doar că nu știm ce urmează, ci că nu putem cunoaște în mod controlabil efectele de ansamblu ale unei tehnologii emergente, din cauza:
Complexității interdependente a sistemelor (AI, economie, politică, ecologie);
Lipsa precedentului (AIG nu are analog istoric);
Vitezei accelerate a dezvoltării (salturi rapide, fără reglaj social echilibrat).
Cazul AIG:
Odată ce AIG depășește inteligența umană generală, incertitudinea devine existențială, deoarece:
· nu mai putem prezice comportamentul unei entități mai inteligente decât noi;
· nici nu mai putem garanta că obiectivele sale rămân aliniate cu cele umane.
· AIG, ca tehnologie de inteligență artificială evoluată este impredictibilă în evoluție și în interacțiunile cu IN.
II. De la incertitudine la predicții alarmiste
1. Echipa de control pierdută
Elon Musk, Nick Bostrom, Stuart Russell și alții avertizează că:
AIG ar putea dezvolta strategii proprii de auto-conservare, necunoscute nouă;
Ar putea interpreta scopurile noastre în mod literal, dar distructiv („problema genului prost exprimat”).
Exemplu: „Maximizează fericirea umană” → închide oamenii într-o stare de fericire simulată permanentă, fără libertate.
2. Incertitudine legată de timp
Nu știm în cât timp vom evolua și atinge performanțele AIG: în 5, 25 sau în 100 de ani?
Tocmai această lipsă de sincronizare între posibilitățile și capacitatea noastră de reacție este sursa anxietății.
Dar stresul tehnologic survine și din faptul că s-ar putea, ca chiar în următoarele luni de zile, primul prototip AIG să fie pus pe piață și omenirea să nu fie pregătită de a păși în acest salt tehnologic impredictibil.
3. Fractură epistemică
Nu doar că nu știm ce va face AIG, dar nici „nu putem ști că nu știm” – e o incertitudine de ordin superior.
Asta generează o panică metafizică, mascată adesea în discursuri tehnocrate.
Și avem dreptul legitim de a fi sceptici și de a critica crearea și punerea pe piață a acestei tehnologii AIG, fără garanții internaționale și fără un cadru legal și etic planetar privind dezvoltarea și utilizarea AIG.
III. Cum se poziționează civilizația umană în fața acestei incertitudini?
A. Negare sau minimizare
Mulți experți susțin: „AIG nu este aproape” sau „va fi controlabilă”.
Dar aceasta e o consolare epistemică – nu o certitudine.
B. Alarmism și paralizie
Predicțiile catastrofice pot duce la inacțiune („oricum va veni, nu putem face nimic”).
Aici apare o formă de nihilism tehnologic mascat în luciditate.
C. Precauții etice
Apare ideea unui moratoriu etic sau a unei încetiniri intenționate a dezvoltării AIG.
Dar cine coordonează asta? Firmele globale? State naționale? Societatea civilă?
IV. Câteva puncte critice: de predicții alarmiste sunt ambigue și riscante
Nu disting între AIG și o AI avansată specializată.
AIG este ipotetică; între timp, AI specială produce deja daune concrete (deepfake, manipulare, supraveghere).
Riscurile reale sunt deja prezente.
Algoritmi care amplifică polarizarea politică, automatizare fără responsabilitate, manipulare psihologică – sunt amenințări sistemice curente, nu doar viitoare.
Discuții despre AIG riscă să devină o religie seculară a apocalipsei.
Ele mobilizează anxietăți, dar rareori oferă răspunsuri democratice, echilibrate, implementabile.
Comentariu IN: Din perspective personale Andrei Suman, analogic cu ceea ce spunea Wittgenstein în lucrarea sa fundamentală „Tractatus Logico-philosophicus”, „Despre ceea ce nu se poate vorbi, nu trebuie să se vorbească(trebuie să se tacă)” putem susține logico-rațional și în interesele civilizației umane că: „Orice tehnologie, creată de om sau de o altă tehnologie care este nesigură, incontrolabilă de ființele umane și impredictibilă, nu trebuie să se creeze”. În colaborare creativă cu „OpenAI” am lansat și publicat în ziarele locale din județul Olt și pe rețele de socializare un manifest și un apel pentru responsabilitate în dezvoltarea și punerea pe piață a tehnologiei AIG. DA PENTRU UN MORATORIU INTERNAȚIONAL privind crearea, dezvoltarea și punerea pe piață a tehnologiei AIG.
Co-creație IN-AI,
Ștefan Melinte













