Acasă Actualitate CARTA ECHILIBRULUI COGNITIV INU – IAlg/IAlgG (Carta Precauției Civilizaționale privind Inteligența)

CARTA ECHILIBRULUI COGNITIV INU – IAlg/IAlgG (Carta Precauției Civilizaționale privind Inteligența)

61

PREAMBUL

Într-o epocă a accelerării tehnologice fără precedent, în care Inteligența Algoritmică (IAlg) și Inteligența Algoritmică Generală (IAlgG) tind și vor tinde să depășească ritmul adaptativ al Inteligenței Natural – Umane (INU), această Cartă afirmă necesitatea păstrării omului ca centru viu al realității cognitive, morale și decizionale.

Recunoscând beneficiile tehnologiilor, dar și riscurile lor existențiale, declarăm Principiul Precauției drept expresie a lucidității, responsabilității și maturității civilizației umane.

Această Cartă este un document viu, deschis revizuirii continue, în numele demnității umane, libertății conștiinței și echilibrului dintre putere și sens.

TITLUL I – DEFINIȚII FUNDAMENTALE

Art. 1 – Inteligența Natural-Umană (INU)

Inteligența Natural-Umană reprezintă și este responsabilitate vie, conștientă, reflexivă și responsabilă a ființei umane de a înțelege, decide, crea, crea sens și asuma consecințe.

Art. 2 – Inteligența Algoritmică (IAlg)

IAlg este și reprezintă orice sistem tehnologic, capabil să proceseze informații, să optimizeze decizii și să genereze rezultate, pe baza unor modele create de om.

Art. 3 – Inteligența Algoritmică Generală (IAlgG)

IAlgG desemnează sistemele capabile de autonomie cognitivă generalizată, de adaptare nelimitată și auto-optimizare transversală.

Art. 4 – Echilibrul Cognitiv

Echilibrul Cognitiv reprezintă starea de colaborativitate și coexistență funcțională dintre INU, IAlg și IAlgG, fără dominația vreuneia dintre acestea asupra celorlalte.

Art. 5 – Hipertrofia Cognitivă

Hipertrofia Cognitivă este și desemnează procesul de acumulare excesivă de putere informațională și decizională care depășește capacitatea de control uman.

Art. 6 – Xenocrația tehnologică, non-umană
Xenocrația sau forma de guvernare directă/ indirectă, realizată prin: inteligențe tehnologice cu precedent uman, inteligențe/non-umane-organice sau anorganice și este percepută ca o formă de guvernare și conducere din afara speciei umane.

TITLUL II – AXIOMELE CARTEI

Art. 7 – Supremația Inteligenței Natural-Umane

Inteligența Natural-Umană are prioritate absolută asupra oricărei forme de inteligență algoritmică, dar, în interesele sale poate colabora sau colaborează cu orice formă de inteligență.

Art. 8 – Nesubstituirea conștiinței

Nici o tehnologie nu poate înlocui conștiința umană ca instanță morală finală.

Art. 9 – Primatul responsabilității asupra eficienței

Performanța tehnologică nu poate prevala asupra responsabilităților umane.

Art. 10 – Tehnologia ca mijloc, nu ca destin

Tehnologia este partener colaborativ în cunoaștere, nu finalitate existențială.

Art. 11 – Limita de valoare

Autolimitarea puterilor tehnologice constituie virtute civilizațională.

TITLUL III – PRINCIPIUL PRECAUȚIEI

Art. 12 – Definiția Principiului Precauției

În situații în care, o tehnologie prezintă riscuri grave, ireversibile sau insuficient înțelese asupra omului și societăților, lipsa cadrului legal și etic privind evoluția cognitivă, a garanțiilor internaționale și certitudinii științifice nu poate justifica și îndreptăți firmele de IAlg/IAlgG să accelereze implementarea și punerea pe piață a acesteia sau a acestora.

Art. 13 – Funcția de frânare

Principiul Precauției autorizează încetinirea sau oprirea dezvoltării tehnologice.

Art. 14 – Funcția de triere

Precauția distinge progresul umanizant de progresul distructiv.

Art. 15 – Funcția de audit

Orice sistem IAlg/IAlgG este supus auditului uman permanent.

Art. 16 – Funcția de suspendare

În caz de risc major, sistemele pot fi suspendate imediat.

Art. 17 – Funcția de revizuire

Principiul Precauției legitimează adaptarea continuă a acestei Carte.

TITLUL IV – DREPTURILE INTELIGENȚEI NATURAL-UMANE

Art. 18 – Dreptul la decizie umană finală

Orice decizie cu impact major trebuie să rămână sub control uman.

Art. 19 – Dreptul la opacitate cognitivă

Nici o persoană nu poate fi complet cartografiată informativ.

Art. 20 – Dreptul la non-augmentare forțată

Nici o ființă umană nu poate fi obligată la creșterea/augmentarea biologică sau tehnologică.

Art. 21 – Dreptul la eroare naturală

Eroarea umană este parte legitimă a existenței, dar cel sau cei care au dreptul la eroare au și obligația de a elimina erorile cu permanență și mai ales, în cazul când acestea afectează securitatea și viața civilizației umane însăși.

Art. 22 – Dreptul la timp interior

Omul are dreptul la viață neoptimizată algoritmic.

TITLUL V – OBLIGAȚIILE ȘI SECURITATEA OPERĂRII CU SISTEMELE IAlg ȘI IAlgG

Art. 23 – Reversibilitatea

Orice sistem IAlg/IAlgG trebuie să poată fi oprit definitiv.

Art. 24 – Trasabilitatea decizională

Deciziile trebuie să poată fi explicate uman.

Art. 25 – Explicabilitatea

Funcționarea algoritmică nu poate rămâne complet opacă.

Art. 26 – Controlul uman final

Fără control uman, un sistem nu este legitim.

Art. 27 – Regim special IAlgG

IAlgG este supus regimului de risc existențial maxim.

TITLUL VI – PRAGURI DE RISC

Art. 28 – Pragul cognitiv

Depășirea capacităților de înțelegere umană declanșează frâna tehnologică.

Art. 29 – Pragul social

Tehnologia nu poate distruge coeziunea socială.

Art. 30 – Pragul economic

Automatizarea nu poate elimina demnitatea muncii.

Art. 31 – Pragul spiritual

Nici o tehnologie nu poate substitui sensul, credința și transcenderea.

Art. 32 – Pragul existențial

Orice risc de substituție ontologică a omului este interzis.

TITLUL VII – MECANISMUL DE REVIZUIRE

Art. 33 – Caracterul viu al Cartei

Prezenta Carte se revizuiește periodic.

Art. 34 – Revizuirea ca act de maturitate

Schimbarea și revizuirea prezentei Carte nu reprezintă și nu este un act de slăbiciune, ci precauție și luciditate.

TITLUL VIII – RESPONSABILITATEA MULTI-NIVEL

Art. 35 – Responsabilitatea individuală

Fiecare utilizator poartă responsabilitate morală.

Art. 36 – Responsabilitatea profesională

Dezvoltatorii de tehnologie au obligație etică extinsă.

Art. 37 – Responsabilitatea statului

Statutul este garant al supremației colaborative INU-Inteligenței Natural-Umane cu AFI(Alte Forme de Inteligență).

Art. 38 – Responsabilitatea civilizațională

Umanitatea răspunde colectiv de propriile creații tehnologice.

TITLUL IX – CLAUZA FINALĂ DE PRECAUȚIE

Art. 39 – Jurământul Precauției

Ne angajăm, în fața Lui Dumnezeu să nu idolatrizăm tehnologia, să nu ne predăm conștiința și să apărăm centrul viu al umanității.

Art. 40 – Supremația omului

Orice lume umană din prezent sau din viitor, care nu mai are omul în centrul său nu mai este o lume umană.

✅ Aceasta este forma completă a Cartei, în variantă oficială.

Co-creație inter-intelligence, Andrei Suman

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.