![](https://www.reporter.al/wp-content/uploads/2023/01/hacker-2300772_1920.jpg)
Njerëzit janë një qenie që prodhojnë mjete, por a mund t'i kontrollojmë ne mjetet që bëjmë? Kur Robert Oppenheimer dhe fizikanë të tjerë zhvilluan armën e parë të ndarjes bërthamore në vitet 1940, ata u shqetësuan se shpikja e tyre mund të shkatërronte njerëzimin. Deri më tani, jo, por kontrolli i armëve bërthamore ka qenë një sfidë e vazhdueshme që atëherë.
Tani, shumë shkencëtarë e shohin inteligjencën artificiale – algoritme dhe softuer që u mundësojnë makinerive të kryejnë detyra që zakonisht kërkojnë inteligjencë njerëzore – si një mjet po aq transformues. Ashtu si teknologjitë e mëparshme për qëllime të përgjithshme, inteligjenca artificiale ka potencial të madh për të mirën dhe të keqen. Në hulumtimin e kancerit, ajo mund të rendit dhe të përmbledhë më shumë studime në pak minuta sesa mund të bëjë një ekip njerëzor për muaj me radhë. Po kështu, ajo mund të parashikojë me besueshmëri modele të palosjeve të proteinave që studiuesve njerëzorë do t'u duheshin shumë vite për t'i zbuluar.
Por inteligjenca artificiale gjithashtu ul kostot dhe barrierat për personat e papërshtatshëm, terroristët dhe aktorët e tjerë të këqij që mund të dëshirojnë të shkaktojnë dëm. Siç paralajmëroi një studim i fundit i RAND-it, “kostoja marxhinale për të ringjallur një virus të rrezikshëm të ngjashëm me linë mund të jetë deri në 100,000 dollarë, ndërsa zhvillimi i një vaksine komplekse mund të jetë mbi 1 miliard dollarë”.
Për më tepër, disa ekspertë shqetësohen se inteligjenca artificiale e avancuar do të jetë aq shumë më e zgjuar sesa njerëzit saqë do të na kontrollojë ajo neve dhe jo anasjelltas. Vlerësimet se sa kohë do të duhet për të zhvilluar makineri të tilla superinteligjente – të njohura si inteligjenca e përgjithshme artificiale – variojnë nga disa vjet në disa dekada. Por sido që të jetë, rreziqet në rritje nga inteligjenca artificiale e ditëve të sotme tashmë kërkojnë vëmendje më të madhe.
Për 40 vjet, Aspen Strategy Group (i përbërë nga ish-zyrtarë qeveritarë, akademikë, biznesmenë dhe gazetarë) mblidhet çdo verë për t'u fokusuar në një problem të madh të sigurisë kombëtare. Sesionet e kaluara kanë trajtuar tema të tilla si armët bërthamore, sulmet kibernetike dhe ngritja e Kinës. Këtë vit, ne u fokusuam në implikimet e inteligjencës artificiale për sigurinë kombëtare, duke shqyrtuar përfitimet si dhe rreziqet.
Ndër përfitimet janë një aftësi më e madhe për të renditur sasi të mëdha të dhënash inteligjence, forcim i sistemeve të paralajmërimit të hershëm, përmirësim të sistemeve të ndërlikuara logjistike dhe inspektim i kodimit kompjuterik për të përmirësuar sigurinë kibernetike. Por ka edhe rreziqe të mëdha, të tilla si përparimet në armët autonome, gabimet aksidentale në algoritmet e programimit dhe AI-të kundërshtare që mund të dobësojnë sigurinë kibernetike.
Kina ka bërë investime masive në garën më të gjerë të armatimeve AI, dhe gjithashtu krenohet me disa avantazhe strukturore. Tre burimet kryesore për AI janë të dhënat për të trajnuar modelet; inxhinierë të zgjuar për të zhvilluar algoritme; dhe fuqia kompjuterike për t'i ekzekutuar ato. Kina ka pak kufizime ligjore ose privatësie për aksesin në të dhëna (megjithëse ideologjia kufizon disa grupe të dhënash) dhe është e pajisur mirë me inxhinierë të rinj të zgjuar. Zona ku ajo është më shumë prapa Shteteve të Bashkuara është në mikroçipet e avancuara që prodhojnë fuqinë llogaritëse për AI.
Kontrollet amerikane të eksportit kufizojnë aksesin e Kinës në këto çipe, si dhe në makineritë e kushtueshme litografike holandeze që i prodhojnë ato. Konsensusi midis ekspertëve në Aspen ishte se Kina është një ose dy vjet prapa SHBA-së; por situata mbetet e paqëndrueshme. Megjithëse presidentët Joe Biden dhe Xi Jinping ranë dakord të zhvillonin diskutime dypalëshe mbi inteligjencën artificiale kur u takuan vjeshtën e kaluar, në Aspen kishte pak optimizëm për perspektivat për kontrollin e armëve AI.
Armët autonome përbëjnë një kërcënim veçanërisht serioz. Pas më shumë se një dekade diplomacie në Kombet e Bashkuara, vendet nuk kanë arritur të bien dakord për ndalimin e armëve vdekjeprurëse autonome. E drejta ndërkombëtare humanitare kërkon që ushtarakët të diskriminojnë ndërmjet luftëtarëve të armatosur dhe civilëve, dhe Pentagoni ka kërkuar prej kohësh që një person të jetë në ciklin vendimmarrës përpara se një armë të shkrepet. Por në disa kontekste, si mbrojtja kundër raketave hyrëse, nuk ka kohë për ndërhyrje njerëzore.
Meqenëse konteksti ka rëndësi, njerëzit duhet të përcaktojnë mirë se çfarë mund të bëjnë dhe çfarë nuk mund të bëjnë armët. Kjo nuk është vetëm një pyetje spekulative. Në luftën e Ukrainës, rusët bllokojnë sinjalet e forcave ukrainase, duke i detyruar ukrainasit të programojnë pajisjet e tyre për vendimmarrje autonome përfundimtare se kur duhet të qëllojnë.
Një nga rreziqet më të frikshme të AI është aplikimi i saj në luftën biologjike ose terrorizëm. Kur vendet ranë dakord të ndalonin armët biologjike në vitin 1972, besimi i përbashkët ishte se pajisje të tilla nuk ishin të dobishme, për shkak të rrezikut të “kundërsulmit” nga ana e dikujt. Por me biologjinë sintetike, mund të jetë e mundur të zhvillohet një armë që shkatërron një grup, por jo një tjetër. Ose një terrorist me akses në një laborator mund të dëshirojë thjesht të vrasë sa më shumë njerëz të jetë e mundur, siç bëri kulti i Aum Shinrikyo në Japoni në 1995. (Ndërsa ata përdorën sarinin, i cili është i patransmetueshëm, ekuivalenti i tyre modern mund të përdorë AI për të zhvilluar një virus ngjitës.)
Në rastin e teknologjisë bërthamore, vendet ranë dakord, në vitin 1968, për një traktat mospërhapjeje që tani ka 191 anëtarë. Agjencia Ndërkombëtare e Energjisë Atomike inspekton rregullisht programet e brendshme të energjisë për të konfirmuar se ato përdoren vetëm për qëllime paqësore. Dhe pavarësisht konkurrencës intensive të Luftës së Ftohtë, vendet kryesore në teknologjinë bërthamore ranë dakord, në vitin 1978, të praktikonin moderim në eksportin e objekteve dhe njohurive teknike më të ndjeshme. Një precedent i tillë sugjeron disa rrugë për AI, megjithëse ka dallime të dukshme midis dy teknologjive.
Është e vërtetë se teknologjia ecën më shpejt se politika apo diplomacia, veçanërisht kur ajo drejtohet nga konkurrenca intensive e tregut në sektorin privat. Nëse pati një përfundim madhor të takimit të këtij viti të Aspen Strategy Group, ai ishte se qeveritë duhet të përshpejtojnë ritmin e tyre.
Marrë me autorizim nga Project Syndicate, 2016. Ripublikimi mund të bëhet vetëm me lejen e Project Syndicate. AI and National Security