Nën hijen e armëve digjitale: IA-ja nuk po shënjestron vetëm punën tuaj, por ekzistencën tuaj

Nga Emre Yilancik

Debati publik mbi inteligjencën artificiale po formësohet gjithnjë e më shumë nga dy narrativa kryesore. Në njërën anë, ekziston shqetësimi se IA-ja do të zëvendësojë punën njerëzore, duke çuar në papunësi masive. Në anën tjetër, ekziston një pamje tekno-utopike që e paraqet IA-në si një zgjidhje për çdo gjë, nga stagnimi ekonomik deri te ndryshimet klimatike.

Megjithatë, mes këtij debati, ne mund të anashkalojmë një ndryshim më të heshtur. Kriza Pentagon-Anthropic ofron një shans jetik për të rishqyrtuar se si shihet kjo teknologji. IA-ja nuk është thjesht një mjet civil, por një instrument ushtarak dhe strategjik i fuqisë.

Për të kuptuar fokusin ushtarak të IA-së, është e dobishme të ekzaminohen origjinat e teknologjive moderne të komunikimit. Përkundër besimeve popullore, shumë prej këtyre teknologjive fillimisht nuk nisën si projekte civile. Paraardhësi i internetit, ARPANET, u zhvillua nga Pentagoni si një rrjet mbrojtës i projektuar për të mbajtur komunikimin gjatë një sulmi bërthamor. Sistemet e sotme të IA-së mbajnë gjurmët e kësaj linje teknologjike.

Nga kjo perspektivë, interesi i Pentagonit për inteligjencën artificiale nuk është i ri. Ai reflekton rrënjët historike të teknologjisë. Historia e kërkimit në IA e përforcon këtë pikë. Gjatë të ashtuquajturve “dimrat e IA-së”, kur investimet private u ngadalësuan dhe shumë akademikë vunë në pikëpyetje të ardhmen e fushës, financimi ushtarak vazhdoi të mbështeste kërkimin. Në vitet 1980, për shembull, Iniciativa Strategjike e llogaritjes e lançuar nga DARPA luajti një rol kyç në avancimin e fuqisë kompjuterike dhe aftësive shënjestruese të IA-së.

Tensionet Pentagon-Anthropic

Kjo marrëdhënie e gjatë midis inteligjencës artificiale dhe institucioneve të mbrojtjes ka rishfaqur së fundmi. Tensionet midis Pentagonit dhe Anthropic zbulojnë se sa e brishtë mund të jetë retorika e sektorit të teknologjisë rreth “IA-së së sigurt dhe etike”.

Kritikat e ashpra nga administrata Trump dhe Sekretari i Luftës Pete Hegseth kanë rihapur debatin nëse teknologjia është vërtet neutrale. Përshkrimi i Trump për kompaninë si “e majtë radikale” në Truth Social nuk duhet të hidhet poshtë si thjesht retorikë politike. Këto deklarata mund të lexohen edhe si një sinjal nga Uashingtoni se shteti mbetet autoriteti suprem mbi teknologjitë strategjike.

Përcaktimi i Anthropicut si një “rrezik për zinxhirin e furnizimit” dhe përgjigja e saj ligjore ekspozoi balancën delikate të fuqisë mes Silicon Valley dhe Uashingtonit. Mbështetja nga gjigantët si Google, Amazon, Microsoft dhe Apple reflektoi jo vetëm solidaritet korporativ, por edhe shqetësimin se presioni i ngjashëm politik mund t’i shënjestrojë edhe ata.

Në këtë moment kritik, OpenAI-ja e Sam Altmanit lëvizi shpejt për të mbushur vakumin strategjik. Ndërsa Anthropic u distancua nga institucionet qeveritare për shkak të mosmarrëveshjeve mbi “vijat e kuqe” etike, OpenAI-ja hyri në një partneritet të ri me Pentagonin. E themeluar në vitin 2015 me një vizion idealist jofitimprurës, OpenAI-ja tani gjendet në zemër të arkitekturës së sigurisë kombëtare me një vlerësim tregu që i kalon 700 miliardë dollarët.

Reagimi më i ndjeshëm ndaj kësaj lëvizjeje erdhi nga vetë përdoruesit. Pas njoftimit të marrëveshjes, fushata #QuitGPT u përhap në rrjetet sociale, duke shkaktuar një rritje rekord prej 300 për qind në shkallën e fshirjes së aplikacionit ChatGPT. Si përgjigje, OpenAI-ja u detyrua të theksonte se marrëveshja përfshinte mbrojtje shtesë, si kufizimet për mbikëqyrjen e qytetarëve amerikanë dhe kërkesat për llogaridhënie njerëzore në sistemet e armëve autonome.

Pavarësisht kësaj, modeli Claude i Anthropic u ngjit me shpejtësi në renditjen e dyqaneve të aplikacioneve, pasi shumë përdorues filluan ta shihnin Claude si një alternativë etike ndaj rreshtimit të OpenAI-së me ushtrinë.

Etika si mburojë reputacioni

Megjithatë, kjo pamje nuk është aq e thjeshtë sa duket. Ndërsa Anthropic thekson fuqishëm diskursin etik, ajo është një nga kompanitë e para të IA-së që ka marrë leje për të punuar brenda rrjeteve të klasifikuara të Pentagonit.

Përdorimi aktiv i Claude në analizat e shënjestrimit që çuan në kapjen e ish-presidentit Maduro gjatë operacionit në Venezuelë në janar, si dhe në sulmet e kryera në Iran, i vizaton mjaft qartë kufijtë e kësaj retorike të “IA-së së sigurt”. Fakti që themeluesi i Anthropic, Dario Amodei, kundërshton mbikëqyrjen e qytetarëve amerikanë ndërsa lë derën hapur për mbikëqyrjen masive jashtë vendit, tregon se si kufijtë etikë ndryshojnë sipas pasaportave.

Kjo situatë zbulon se identitetet etike të gjigantëve të IA-së janë kthyer në mjetë për menaxhimin e reputacionit. Për këto kompani, etika shpesh nuk është asgjë më shumë se “Ethics Washing” (larje etike) që dekoron fasadën e korporatës sesa një përgjegjësi e thellë.

Arkitektura e vrasjeve masive

Integrimi i IA-së në sistemet ushtarake po krijon atë që studiuesit ligjorë e quajnë “hendeku i llogaridhënies”. Sot, zonat e konfliktit janë bërë laboratorë masivë për teknologjinë.

Disa nga shembujt më tmerrues shihen në sistemet si “Habsora” dhe “Lavender,” të përdorura në sulmet në Gazë. Këto sisteme i trajtojnë viktimat civile si një marzh statistikor gabimi. Siç ka argumentuar gazetari Yuval Abraham, teknologji të tilla rrezikojnë të kthehen në një “fabrikë të vrasjeve masive.”

Mbikëqyrja njerëzore (human-in-the-loop) shpesh paraqitet si një mbrojtje etike, por në praktikë, ajo shpesh nuk është asgjë më shumë se një miratim simbolik. Kur algoritmet gjenerojnë mijëra shënjestra brenda pak minutash, është fizikisht e pamundur për operatorin që të shqyrtojë të dhënat në detaje.

Avullimi i përgjegjësisë

IA-ja nuk proceson më thjesht të dhëna; ajo i redukton njerëzit në koordinata anonime. Kur të dhënat e gabuara ose paragjykimet algoritmike çojnë në humbje jetësh, lind pyetja: kush është përgjegjës? Inxhinieri, kompania, apo përdoruesi që shtypi butonin?

Kërkimet nga Profesor Kenneth Payne sugjerojnë se modelet e IA-ja janë 95 për qind më të prirura se njerëzit për të përdorur armë bërthamore gjatë momenteve të krizës. Njerëzimi ka hezituar ta shtypë këmbëzën bërthamore duke mësuar nga kujtesa e Hiroshimës dhe Nagasakit, por algoritmet nuk zotërojnë as këtë kujtesë historike dhe as ndërgjegje morale. Në këtë fazë, makthi “Skynet” nga filmat Terminator nuk është më thjesht një distopi fantastiko-shkencore, por një realpolitikë e re.

Rrethimi algoritmik

IA-ja po evoluon në një element qendror të arkitekturës globale të sigurisë. Kompanitë që kontrollojnë këtë infrastrukturë po ndërtojnë kufij digjitalë që përcaktojnë sferën e lëvizjes për shoqërinë.

Për gjuhët dhe kulturat që mungojnë në setet e të dhënave të trajnimit, rreziku shkon përtej varësisë teknologjike; ai rrezikon një formë të thellë të imperializmit kulturor. Modelet e IA-së mbartin kodet kulturore dhe paragjykimet ideologjike të vendeve ku janë krijuar, duke i paraqitur ato si të vërteta universale.

Në analizën përfundimtare, IA-ja nuk është më një asistent zyre që premton efikasitet; ajo po kthehet në një armë dixhitale që rrethon ekzistencën njerëzore dhe kufijtë shoqërorë nga çdo drejtim. /TRT Balkan/

Të ngjajshme

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button