Deklarata me 22 fjalë, e shkurtuar për ta bërë atë sa më gjerësisht të pranueshme që të jetë e mundur, thotë si vijon: "Zbutja e rrezikut të zhdukjes nga AI duhet të jetë një prioritet global krahas rreziqeve të tjera në shkallë shoqërore si pandemitë dhe lufta bërthamore".
Kjo deklaratë, e publikuar nga një organizatë jofitimprurëse me bazë në San Francisko, Qendra për Sigurinë e AI, është bashkë-nënshkruar nga figura duke përfshirë CEO të Google DeepMind, Demis Hassabis dhe CEO të OpenAI, Sam Altman, si dhe Geoffrey Hinton dhe Youshua Bengio - dy nga tre studiuesit e AI që fituan çmimin Turing 2018 (ndonjëherë i referuar si "Çmimi Nobel i Informatikës") për punën e tyre në AI. Në kohën e shkrimit, fituesi i tretë i vitit, Yann LeCun, tani shkencëtari kryesor i AI në kompaninë mëmë Facebook Meta, nuk ka nënshkruar.
Deklarata është ndërhyrja më e fundit e profilit të lartë në debatin e ndërlikuar dhe të diskutueshëm mbi sigurinë e AI. Në fillim të këtij viti, një letër e hapur e nënshkruar nga disa nga të njëjtët individë që mbështeste paralajmërimin me 22 fjalë, bëri thirrje për një "pauzë" gjashtëmujore në zhvillimin e AI. Letra u kritikua në shumë nivele. Disa ekspertë menduan se e mbivlerësonte rrezikun e paraqitur nga AI, ndërsa të tjerë ranë dakord me rrezikun, por jo me ilaçin e sugjeruar nga letra.
Dan Hendrycks, drejtor ekzekutiv i Qendrës për Sigurinë e AI, i tha New York Times se shkurtësia e deklaratës së sotme - e cila nuk sugjeron ndonjë mënyrë të mundshme për të zbutur kërcënimin e paraqitur nga AI - kishte për qëllim të shmangte një mosmarrëveshje të tillë. "Ne nuk donim të shtynim për një menu shumë të madhe prej 30 ndërhyrjesh të mundshme," tha Hendricks. "Kur kjo ndodh, ajo e hollon mesazhin."
Hendrycks e përshkroi mesazhin si një "arritje" për figurat në industri të shqetësuara për rrezikun e AI. "Ekziston një keqkuptim shumë i zakonshëm, madje edhe në komunitetin e AI, se ka vetëm një pjesë të vogël të ndëshkuesve," tha Hendrycks për The Times. "Por, në fakt, shumë njerëz privatisht do të shprehnin shqetësime për këto gjëra."
Konturet e gjera të këtij debati janë të njohura, por detajet shpesh të pafundme, bazuar në skenarë hipotetikë në të cilët sistemet e AI rriten me shpejtësi në aftësi dhe nuk funksionojnë më në mënyrë të sigurt. Shumë ekspertë theksojnë përmirësimet e shpejta në sisteme si modelet e mëdha të gjuhës, si dëshmi e përfitimeve të parashikuara në të ardhmen në inteligjencë. Ata thonë se sapo sistemet e AI arrijnë një nivel të caktuar të sofistikimit, mund të bëhet e pamundur të kontrollohen veprimet e tyre.
Të tjerë dyshojnë në këto parashikime. Ata tregojnë për paaftësinë e sistemeve të AI për të trajtuar edhe detyra relativisht të zakonshme si, për shembull, drejtimi i një makine. Megjithë përpjekjet e viteve dhe miliarda investime në këtë fushë kërkimore, makinat plotësisht vetë-drejtuese janë ende larg realitetit. Nëse AI nuk mund të përballojë as këtë sfidë të vetme, thonë skeptikët, çfarë shanse ka teknologjia që të përputhet me çdo arritje tjetër njerëzore në vitet e ardhshme?
Ndërkohë, si mbrojtësit e rrezikut të inteligjencës artificiale ashtu edhe skeptikët pajtohen se, edhe pa përmirësime në aftësitë e tyre, sistemet e AI paraqesin një sërë kërcënimesh në ditët e sotme – nga përdorimi i tyre që mundëson mbikëqyrjen masive, fuqizimin e algoritmeve të gabuara të “policimit parashikues” dhe lehtësimin e krijimi i dezinformatave dhe dezinformatave.