Elon Musk dhe studiuesit kryesorë të AI bëjnë thirrje për pauzë në 'eksperimentet gjigante të AI'
Elon Musk dhe studiuesit kryesorë të AI bëjnë thirrje për pauzë në 'eksperimentet gjigante të AI'
Një numër studiuesish të njohur të AI - dhe Elon Musk - kanë nënshkruar një letër të hapur duke u bërë thirrje laboratorëve të AI në mbarë botën të ndalojnë zhvillimin e sistemeve të AI në shkallë të gjerë, duke përmendur frikën mbi "rreziqet e thella për shoqërinë dhe njerëzimin" që ata pretendojnë këtë. pozat e softuerit.

Letra, e publikuar nga Instituti jofitimprurës Future of Life, vë në dukje se laboratorët e AI janë aktualisht të bllokuar në një "garë jashtë kontrollit" për të zhvilluar dhe vendosur sisteme të mësimit të makinerive "që askush - madje as krijuesit e tyre - nuk mund t'i kuptojë, parashikojnë. , ose kontroll të besueshëm.”

“Prandaj, ne u bëjmë thirrje të gjithë laboratorëve të AI që të ndalojnë menjëherë për të paktën 6 muaj trajnimin e sistemeve të AI më të fuqishme se GPT-4”, thuhet në letër. “Kjo pauzë duhet të jetë publike dhe e verifikueshme dhe të përfshijë të gjithë aktorët kryesorë. Nëse një pauzë e tillë nuk mund të zbatohet shpejt, qeveritë duhet të ndërhyjnë dhe të vendosin një moratorium.”

Nënshkruesit përfshijnë autorin Yuval Noah Harari, bashkë-themeluesin e Apple Steve Wozniak, bashkë-themeluesin e Skype Jaan Tallinn, politikanin Andrew Yang dhe një numër studiuesish dhe CEO të njohur të AI, duke përfshirë Stuart Russell, Yoshua Bengio, Gary Marcus dhe Emad Mostaque. . Lista e plotë e nënshkruesve mund të shihet këtu, megjithëse emrat e rinj duhet të trajtohen me kujdes pasi ka raporte për emra që janë shtuar në listë si shaka (p.sh. CEO i OpenAI Sam Altman, një individ që është pjesërisht përgjegjës për dinamikën aktuale të garës në AI).

Letra nuk ka gjasa të ketë ndonjë efekt në klimën aktuale në kërkimin e AI, i cili ka parë që kompanitë e teknologjisë si Google dhe Microsoft të nxitojnë për të vendosur produkte të reja, shpesh duke anashkaluar shqetësimet e premtuara më parë mbi sigurinë dhe etikën. Por kjo është një shenjë e rritjes së kundërshtimit ndaj kësaj qasjeje "dërgojeni tani dhe rregullojeni më vonë"; një opozitë që potencialisht mund të hyjë në domenin politik për t'u konsideruar nga ligjvënësit aktualë.

Siç theksohet në letër, edhe vetë OpenAI ka shprehur nevojën e mundshme për "rishikim të pavarur" të sistemeve të ardhshme të AI për të siguruar që ato përmbushin standardet e sigurisë. Nënshkruesit thonë se kjo kohë ka ardhur.

“Laboratorët e AI dhe ekspertët e pavarur duhet ta përdorin këtë pauzë për të zhvilluar dhe zbatuar së bashku një sërë protokollesh të përbashkëta sigurie për dizajnin dhe zhvillimin e avancuar të AI që auditohen dhe mbikëqyren në mënyrë rigoroze nga ekspertë të jashtëm të pavarur”, shkruajnë ata. "Këto protokolle duhet të sigurojnë që sistemet që i përmbahen tyre janë të sigurta përtej një dyshimi të arsyeshëm."

What's your reaction?

Comments

https://thetechnocast.com/assets/images/user-avatar-s.jpg

0 comment

Write the first comment for this!

Facebook Conversations