Kompanitë e inteligjencës artificiale duhet të dëshmojnë se AI i tyre është i sigurt

Organizatat jofitimprurëse Accountable Tech, AI Now dhe Qendra e Informacionit të Privatësisë Elektronike (EPIC) lëshuan propozime politikash që synojnë të kufizojnë fuqinë që kanë kompanitë e mëdha të AI në rregullore që mund të zgjerojnë gjithashtu fuqinë e agjencive qeveritare kundër disa përdorimeve të AI gjeneruese.

Grupi ua dërgoi kornizën politikanëve dhe agjencive qeveritare kryesisht në SHBA këtë muaj, duke u kërkuar atyre që ta konsiderojnë atë ndërsa hartojnë ligje dhe rregullore të reja rreth AI.

Korniza, të cilën ata e quajnë Qeverisja e AI-së me besim Zero, mbështetet në tre parime: zbatimi i ligjeve ekzistuese; krijoni rregulla të guximshme, të zbatueshme lehtësisht të vijës së ndritshme; dhe vendos barrën mbi kompanitë për të provuar se sistemet e AI nuk janë të dëmshme në çdo fazë të ciklit jetësor të AI. Përkufizimi i tij i AI përfshin si AI gjeneruese ashtu edhe modelet e themelimit që e mundësojnë atë, së bashku me vendimmarrjen algoritmike.

"Ne donim të nxirrnim kornizën tani sepse teknologjia po evoluon shpejt, por ligjet e reja nuk mund të lëvizin me atë shpejtësi," thotë Jesse Lehrich, bashkëthemelues i Accountable Tech, për The Verge.

Ai shton se, me ardhjen e sezonit zgjedhor, Kongresi së shpejti do të largohet për të bërë fushatë, duke lënë në ajër fatin e rregullimit të AI.

Ndërsa qeveria vazhdon të kuptojë se si të rregullojë AI gjeneruese, grupi tha se ligjet aktuale rreth antidiskriminimit, mbrojtjes së konsumatorëve dhe konkurrencës ndihmojnë në adresimin e dëmeve aktuale.

Diskriminimi dhe paragjykimi në AI është diçka për të cilën studiuesit kanë paralajmëruar prej vitesh. Një artikull i kohëve të fundit i Rolling Stone tregoi se si ekspertë të njohur si Timnit Gebru dhanë alarmin për këtë çështje për vite me radhë, por u injoruan nga kompanitë që i punësuan.

Lehrich vuri në dukje hetimin e Komisionit Federal të Tregtisë për OpenAI si një shembull i rregullave ekzistuese që përdoren për të zbuluar dëmin e mundshëm të konsumatorit. Agjencitë e tjera qeveritare kanë paralajmëruar gjithashtu kompanitë e AI se do të monitorojnë nga afër përdorimin e AI në sektorët e tyre specifik.

Kongresi ka mbajtur disa seanca dëgjimore duke u përpjekur të kuptojë se çfarë duhet bërë në lidhje me rritjen e AI gjeneruese. Udhëheqësi i shumicës në Senat, Chuck Schumer u bëri thirrje kolegëve që të "rrijnë ritmin" në krijimin e rregullave të AI. Kompanitë e mëdha të AI si OpenAI kanë qenë të hapura për të punuar me qeverinë amerikane për hartimin e rregulloreve dhe madje kanë nënshkruar një marrëveshje jodetyruese dhe të pazbatueshme me Shtëpinë e Bardhë për të zhvilluar AI të përgjegjshme.

Korniza Zero Trust AI gjithashtu kërkon të ripërcaktojë kufijtë e ligjeve të mbrojtjes dixhitale si Seksioni 230, në mënyrë që kompanitë gjeneruese të AI të mbahen përgjegjëse nëse modeli nxjerr informacion të rremë ose të rrezikshëm.

“Ideja që qëndron pas Seksionit 230 ka kuptim në vija të gjera, por ka një ndryshim midis një rishikimi të keq në Yelp sepse dikush e urren restorantin dhe GPT duke krijuar gjëra shpifëse,” thotë Lehrich. (Seksioni 230 u miratua pjesërisht pikërisht për të mbrojtur shërbimet në internet nga përgjegjësia ndaj përmbajtjes shpifëse, por ka pak precedent të vendosur nëse platforma si ChatGPT mund të mbahen përgjegjëse për gjenerimin e deklaratave të rreme dhe të dëmshme.)

Dhe ndërsa ligjvënësit vazhdojnë të takohen me kompanitë e inteligjencës artificiale, duke nxitur frikën e kapjes rregullatore, Accountable Tech dhe partnerët e saj sugjeruan disa rregulla të qarta ose politika që janë të përcaktuara qartë dhe nuk lënë hapësirë për subjektivitet.

Këto përfshijnë ndalimin e përdorimit të AI për njohjen e emocioneve, policimin parashikues, njohjen e fytyrës që përdoret për mbikëqyrjen masive në vende publike, vlerësimet sociale dhe punësimin, shkarkimin dhe menaxhimin e burimeve njerëzore plotësisht të automatizuara. Ata gjithashtu kërkojnë të ndalojnë mbledhjen ose përpunimin e sasive të panevojshme të të dhënave të ndjeshme për një shërbim të caktuar, mbledhjen e të dhënave biometrike në fusha si arsimi dhe punësimi, dhe "reklamat e mbikqyrjes".

Accountable Tech gjithashtu u bëri thirrje ligjvënësve të parandalojnë ofruesit e mëdhenj të cloud që të zotërojnë ose të kenë një interes të dobishëm në shërbime të mëdha komerciale të AI për të kufizuar ndikimin e kompanive të Big Tech në ekosistemin e AI. Ofruesit e reve kompjuterike si Microsoft dhe Google kanë një ndikim të madh në AI gjeneruese. OpenAI, zhvilluesi më i njohur gjenerues i AI, punon me Microsoft, i cili gjithashtu investoi në kompani. Google lëshoi modelin e tij të gjuhës së madhe Bard dhe po zhvillon modele të tjera të AI për përdorim komercial.

Grupi propozon një metodë të ngjashme me atë të përdorur në industrinë farmaceutike, ku kompanitë i nënshtrohen rregulloreve edhe përpara se të vendosin një model AI në publik dhe monitorimin e vazhdueshëm pas lëshimit komercial.

Organizatat jofitimprurëse nuk kërkojnë një organ të vetëm rregullator qeveritar. Megjithatë, Lehrich thotë se kjo është një pyetje me të cilën ligjvënësit duhet të përballen për të parë nëse ndarja e rregullave do t'i bëjë rregulloret më fleksibël ose do të pengojë zbatimin.

Lehrich thotë se është e kuptueshme që kompanitë më të vogla mund të pengojnë sasinë e rregullores që kërkojnë, por ai beson se ka vend për të përshtatur politikat sipas madhësive të kompanive.

“Realisht, ne duhet të bëjmë dallimin midis fazave të ndryshme të zinxhirit të furnizimit të AI dhe kërkesave të projektimit të përshtatshme për secilën fazë,” thotë ai.

Ai shton se zhvilluesit që përdorin modele me burim të hapur duhet gjithashtu të sigurohen që këto të ndjekin udhëzimet.