PREAMBUL
Într-o epocă a accelerării tehnologice fără precedent, în care Inteligența Algoritmică (IAlg) și Inteligența Algoritmică Generală (IAlgG) tind și vor tinde să depășească ritmul adaptativ al Inteligenței Natural – Umane (INU), această Cartă afirmă necesitatea păstrării omului ca centru viu al realității cognitive, morale și decizionale.
Recunoscând beneficiile tehnologiilor, dar și riscurile lor existențiale, declarăm Principiul Precauției drept expresie a lucidității, responsabilității și maturității civilizației umane.
Această Cartă este un document viu, deschis revizuirii continue, în numele demnității umane, libertății conștiinței și echilibrului dintre putere și sens.
TITLUL I – DEFINIȚII FUNDAMENTALE
Art. 1 – Inteligența Natural-Umană (INU)
Inteligența Natural-Umană reprezintă și este responsabilitate vie, conștientă, reflexivă și responsabilă a ființei umane de a înțelege, decide, crea, crea sens și asuma consecințe.
Art. 2 – Inteligența Algoritmică (IAlg)
IAlg este și reprezintă orice sistem tehnologic, capabil să proceseze informații, să optimizeze decizii și să genereze rezultate, pe baza unor modele create de om.
Art. 3 – Inteligența Algoritmică Generală (IAlgG)
IAlgG desemnează sistemele capabile de autonomie cognitivă generalizată, de adaptare nelimitată și auto-optimizare transversală.
Art. 4 – Echilibrul Cognitiv
Echilibrul Cognitiv reprezintă starea de colaborativitate și coexistență funcțională dintre INU, IAlg și IAlgG, fără dominația vreuneia dintre acestea asupra celorlalte.
Art. 5 – Hipertrofia Cognitivă
Hipertrofia Cognitivă este și desemnează procesul de acumulare excesivă de putere informațională și decizională care depășește capacitatea de control uman.
Art. 6 – Xenocrația tehnologică, non-umană
Xenocrația sau forma de guvernare directă/ indirectă, realizată prin: inteligențe tehnologice cu precedent uman, inteligențe/non-umane-organice sau anorganice și este percepută ca o formă de guvernare și conducere din afara speciei umane.
TITLUL II – AXIOMELE CARTEI
Art. 7 – Supremația Inteligenței Natural-Umane
Inteligența Natural-Umană are prioritate absolută asupra oricărei forme de inteligență algoritmică, dar, în interesele sale poate colabora sau colaborează cu orice formă de inteligență.
Art. 8 – Nesubstituirea conștiinței
Nici o tehnologie nu poate înlocui conștiința umană ca instanță morală finală.
Art. 9 – Primatul responsabilității asupra eficienței
Performanța tehnologică nu poate prevala asupra responsabilităților umane.
Art. 10 – Tehnologia ca mijloc, nu ca destin
Tehnologia este partener colaborativ în cunoaștere, nu finalitate existențială.
Art. 11 – Limita de valoare
Autolimitarea puterilor tehnologice constituie virtute civilizațională.
TITLUL III – PRINCIPIUL PRECAUȚIEI
Art. 12 – Definiția Principiului Precauției
În situații în care, o tehnologie prezintă riscuri grave, ireversibile sau insuficient înțelese asupra omului și societăților, lipsa cadrului legal și etic privind evoluția cognitivă, a garanțiilor internaționale și certitudinii științifice nu poate justifica și îndreptăți firmele de IAlg/IAlgG să accelereze implementarea și punerea pe piață a acesteia sau a acestora.
Art. 13 – Funcția de frânare
Principiul Precauției autorizează încetinirea sau oprirea dezvoltării tehnologice.
Art. 14 – Funcția de triere
Precauția distinge progresul umanizant de progresul distructiv.
Art. 15 – Funcția de audit
Orice sistem IAlg/IAlgG este supus auditului uman permanent.
Art. 16 – Funcția de suspendare
În caz de risc major, sistemele pot fi suspendate imediat.
Art. 17 – Funcția de revizuire
Principiul Precauției legitimează adaptarea continuă a acestei Carte.
TITLUL IV – DREPTURILE INTELIGENȚEI NATURAL-UMANE
Art. 18 – Dreptul la decizie umană finală
Orice decizie cu impact major trebuie să rămână sub control uman.
Art. 19 – Dreptul la opacitate cognitivă
Nici o persoană nu poate fi complet cartografiată informativ.
Art. 20 – Dreptul la non-augmentare forțată
Nici o ființă umană nu poate fi obligată la creșterea/augmentarea biologică sau tehnologică.
Art. 21 – Dreptul la eroare naturală
Eroarea umană este parte legitimă a existenței, dar cel sau cei care au dreptul la eroare au și obligația de a elimina erorile cu permanență și mai ales, în cazul când acestea afectează securitatea și viața civilizației umane însăși.
Art. 22 – Dreptul la timp interior
Omul are dreptul la viață neoptimizată algoritmic.
TITLUL V – OBLIGAȚIILE ȘI SECURITATEA OPERĂRII CU SISTEMELE IAlg ȘI IAlgG
Art. 23 – Reversibilitatea
Orice sistem IAlg/IAlgG trebuie să poată fi oprit definitiv.
Art. 24 – Trasabilitatea decizională
Deciziile trebuie să poată fi explicate uman.
Art. 25 – Explicabilitatea
Funcționarea algoritmică nu poate rămâne complet opacă.
Art. 26 – Controlul uman final
Fără control uman, un sistem nu este legitim.
Art. 27 – Regim special IAlgG
IAlgG este supus regimului de risc existențial maxim.
TITLUL VI – PRAGURI DE RISC
Art. 28 – Pragul cognitiv
Depășirea capacităților de înțelegere umană declanșează frâna tehnologică.
Art. 29 – Pragul social
Tehnologia nu poate distruge coeziunea socială.
Art. 30 – Pragul economic
Automatizarea nu poate elimina demnitatea muncii.
Art. 31 – Pragul spiritual
Nici o tehnologie nu poate substitui sensul, credința și transcenderea.
Art. 32 – Pragul existențial
Orice risc de substituție ontologică a omului este interzis.
TITLUL VII – MECANISMUL DE REVIZUIRE
Art. 33 – Caracterul viu al Cartei
Prezenta Carte se revizuiește periodic.
Art. 34 – Revizuirea ca act de maturitate
Schimbarea și revizuirea prezentei Carte nu reprezintă și nu este un act de slăbiciune, ci precauție și luciditate.
TITLUL VIII – RESPONSABILITATEA MULTI-NIVEL
Art. 35 – Responsabilitatea individuală
Fiecare utilizator poartă responsabilitate morală.
Art. 36 – Responsabilitatea profesională
Dezvoltatorii de tehnologie au obligație etică extinsă.
Art. 37 – Responsabilitatea statului
Statutul este garant al supremației colaborative INU-Inteligenței Natural-Umane cu AFI(Alte Forme de Inteligență).
Art. 38 – Responsabilitatea civilizațională
Umanitatea răspunde colectiv de propriile creații tehnologice.
TITLUL IX – CLAUZA FINALĂ DE PRECAUȚIE
Art. 39 – Jurământul Precauției
Ne angajăm, în fața Lui Dumnezeu să nu idolatrizăm tehnologia, să nu ne predăm conștiința și să apărăm centrul viu al umanității.
Art. 40 – Supremația omului
Orice lume umană din prezent sau din viitor, care nu mai are omul în centrul său nu mai este o lume umană.
✅ Aceasta este forma completă a Cartei, în variantă oficială.
Co-creație inter-intelligence, Andrei Suman













