Këto lloje hakerash, siç shpjegoi raporti, janë ato që njihen si "sulme të kanalit anësor", të cilat përfshijnë palët e treta që nxjerrin përfundimin e të dhënave në mënyrë pasive duke përdorur meta të dhëna ose ekspozime të tjera indirekte në vend që të shkelin muret e sigurisë. Ndërsa ky lloj shfrytëzimi mund të ndodhë me çdo lloj teknologjie, AI duket veçanërisht i prekshëm sepse përpjekjet e tij për enkriptim nuk janë domosdoshmërisht deri në fund.
"Sulmi është pasiv dhe mund të ndodhë pa dijeninë e OpenAI ose të klientit të tyre," zbuloi studiuesi. "OpenAI kodon trafikun e tyre për të parandaluar këto lloj sulmesh përgjimi, por hulumtimi ynë tregon se mënyra se si OpenAI po përdor enkriptimin është me të meta, dhe kështu përmbajtja e mesazheve ekspozohet."
Megjithëse sulmet e kanaleve anësore janë më pak invazive se format e tjera të hakimeve, ato, siç raporton Ars, mund të konkludojnë afërsisht një kërkesë të caktuar chatbot me saktësi 55 për qind, gjë që e bën çdo pyetje të ndjeshme që dikush mund t'i bëjë një AI të lehtë për t'u zbuluar për aktorët e këqij.
Ndërsa studiuesit e Ben-Gurion janë fokusuar kryesisht në gabimet e kriptimit në OpenAI, shumica e chatbot-eve në treg sot me përjashtim, për çfarëdo arsye, të Gemini të Google mund të shfrytëzohen në këtë mënyrë, tregon raporti.
Kjo çështje lind nga përdorimi i chatbot-eve të pjesëve të koduara të të dhënave të njohura si "tokens", të cilat ndihmojnë modelet e mëdha të gjuhës (LLM) të përkthejnë hyrjet dhe të japin me shpejtësi përgjigje të lexueshme. Këto shpesh dërgohen shumë shpejt në mënyrë që "biseda" e një përdoruesi me chatbot të rrjedhë natyrshëm, si dikush që shkruan një përgjigje në vend që gjatësia e një paragrafi të tërë të shfaqet menjëherë.
Ndërsa procesi i dorëzimit është përgjithësisht i koduar, vetë argumentet prodhojnë një kanal anësor për të cilin studiuesit nuk kishin qenë më parë në dijeni. Kushdo që fiton akses në këto të dhëna në kohë reale, mund të jetë në gjendje, siç shpjegojnë studiuesit e Ben-Gurion në një punim të ri, të nxjerrë përfundimet tuaja në bazë të shenjave që ata aksesojnë, njësoj si të konkludojë temën e një bisede të heshtur të dëgjuar në anën tjetër të një dere ose muri.
Për të dokumentuar këtë shfrytëzim, Mirsky dhe ekipi i tij në Ben-Gurion përdorën të dhëna të papërpunuara të marra përmes kanalit anësor të padëshiruar përmes një LLM të dytë të trajnuar për të identifikuar fjalët kyçe, siç shpjegojnë ata në punimin e tyre, i cili ende nuk është publikuar zyrtarisht. Siç zbuluan, LLM kishte një rezultat afërsisht 50/50 në nxjerrjen e kërkesave të përgjithshme - dhe ishte në gjendje t'i parashikonte ato pothuajse në mënyrë perfekte në 29 përqind të rasteve.
Në një deklaratë, Microsoft i tha Ars se shfrytëzimi, i cili gjithashtu prek AI-n e tij Copilot, nuk komprometon detajet personale.
"Detaje specifike si emrat nuk ka gjasa të parashikohen," tha një zëdhënës i Microsoft për faqen e internetit. "Ne jemi të përkushtuar të ndihmojmë në mbrojtjen e klientëve tanë kundër këtyre sulmeve të mundshme dhe do ta adresojmë atë me një përditësim."
Gjetjet janë ogurzi dhe në rastin e temave të ngarkuara si aborti ose çështjet LGBTQ, të cilat të dyja po kriminalizohen në Shtetet e Bashkuara ndërsa flasim, mund të përdoret për të dëmtuar ose ndëshkuar njerëzit që thjesht kërkojnë informacion.