Elon Musk dhe studiuesit kryesorë të AI bëjnë thirrje për pauzë në 'eksperimentet gjigante të AI'
Një numër studiuesish të njohur të AI - dhe Elon Musk - kanë nënshkruar një letër të hapur duke u bërë thirrje laboratorëve të AI në mbarë botën të ndalojnë zhvillimin e sistemeve të AI në shkallë të gjerë, duke përmendur frikën mbi "rreziqet e thella për shoqërinë dhe njerëzimin" që ata pretendojnë këtë. pozat e softuerit.

Letra, e publikuar nga Instituti jofitimprurës Future of Life, vë në dukje se laboratorët e AI janë aktualisht të bllokuar në një "garë jashtë kontrollit" për të zhvilluar dhe vendosur sisteme të mësimit të makinerive "që askush - madje as krijuesit e tyre - nuk mund t'i kuptojë, parashikojnë. , ose kontroll të besueshëm.”

“Prandaj, ne u bëjmë thirrje të gjithë laboratorëve të AI që të ndalojnë menjëherë për të paktën 6 muaj trajnimin e sistemeve të AI më të fuqishme se GPT-4”, thuhet në letër. “Kjo pauzë duhet të jetë publike dhe e verifikueshme dhe të përfshijë të gjithë aktorët kryesorë. Nëse një pauzë e tillë nuk mund të zbatohet shpejt, qeveritë duhet të ndërhyjnë dhe të vendosin një moratorium.”

Nënshkruesit përfshijnë autorin Yuval Noah Harari, bashkë-themeluesin e Apple Steve Wozniak, bashkë-themeluesin e Skype Jaan Tallinn, politikanin Andrew Yang dhe një numër studiuesish dhe CEO të njohur të AI, duke përfshirë Stuart Russell, Yoshua Bengio, Gary Marcus dhe Emad Mostaque. . Lista e plotë e nënshkruesve mund të shihet këtu, megjithëse emrat e rinj duhet të trajtohen me kujdes pasi ka raporte për emra që janë shtuar në listë si shaka (p.sh. CEO i OpenAI Sam Altman, një individ që është pjesërisht përgjegjës për dinamikën aktuale të garës në AI).

Letra nuk ka gjasa të ketë ndonjë efekt në klimën aktuale në kërkimin e AI, i cili ka parë që kompanitë e teknologjisë si Google dhe Microsoft të nxitojnë për të vendosur produkte të reja, shpesh duke anashkaluar shqetësimet e premtuara më parë mbi sigurinë dhe etikën. Por kjo është një shenjë e rritjes së kundërshtimit ndaj kësaj qasjeje "dërgojeni tani dhe rregullojeni më vonë"; një opozitë që potencialisht mund të hyjë në domenin politik për t'u konsideruar nga ligjvënësit aktualë.

Siç theksohet në letër, edhe vetë OpenAI ka shprehur nevojën e mundshme për "rishikim të pavarur" të sistemeve të ardhshme të AI për të siguruar që ato përmbushin standardet e sigurisë. Nënshkruesit thonë se kjo kohë ka ardhur.

“Laboratorët e AI dhe ekspertët e pavarur duhet ta përdorin këtë pauzë për të zhvilluar dhe zbatuar së bashku një sërë protokollesh të përbashkëta sigurie për dizajnin dhe zhvillimin e avancuar të AI që auditohen dhe mbikëqyren në mënyrë rigoroze nga ekspertë të jashtëm të pavarur”, shkruajnë ata. "Këto protokolle duhet të sigurojnë që sistemet që i përmbahen tyre janë të sigurta përtej një dyshimi të arsyeshëm."

What's your reaction?


You may also like

Facebook Conversations