A është inteligjenca artificiale imun ndaj sulmeve të hakerëve?

Inteligjenca artificiale (AI) po ndryshon thellësisht shoqërinë në të cilën jetojmë, përdorimi i saj është në sektorët më të ndryshëm si automatizimi industrial, mjekësia dhe financat.

Çfarë kontrollojmë

AI gjithashtu besohet se jep një kontribut të rëndësishëm në zhvillimin e teknologjive të reja duke ndryshuar mënyrën se si jetojmë dhe punojmë. Duke pasur parasysh adoptimin e shpejtë të kësaj teknologjie, është legjitime të pyesim nëse sistemet e bazuara në inteligjencën artificiale janë imun ndaj sulmeve kibernetike.

Analizon

Teknikat dhe objektivat e kriminelëve kibernetikë po përparojnë vazhdimisht dhe shpesh përfitojnë nga ngjarjet aktuale ose temat e reja. Me rritjen e popullaritetit të softuerit të inteligjencës artificiale ChatGpt është vërejtur krijimi i viruseve dhe malware të rinj si dhe krijimi i emaileve shpërndarëse të phishing. Ne mund të grupojmë sulmet e AI në dy makro-kategori, shpjegon Pierluigi Paganini, CEO i Cyberhorus dhe profesor i Sigurisë Kibernetike në Universitetin Luiss Guido Carli. Kjo do të thotë, sulme kundër sistemeve dhe sulme ndaj modeleve të inteligjencës artificiale.

Kategoria e parë përfshin sulmet ndaj infrastrukturës në të cilën bazohet një sistem inteligjence artificiale, për shembull, në rrjetet ose serverët që e presin atë, në komunikimet midis komponentëve dhe në aksesin e paautorizuar në të dhëna dhe në vetë modelin. Sulmet që i përkasin kategorisë së dytë synojnë në mënyrë specifike modelin e AI të përdorur nga sistemi. Një shembull është manipulimi i të dhënave të trajnimit ose ndryshimi i parametrave të modelit. Në një sulm të manipulimit të të dhënave, sulmuesi modifikon ose manipulon grupet e të dhënave të përdorura për trajnimin ose ushqyerjen e një modeli AI me qëllimin për të ndërhyrë në sjelljen e tij. Le të imagjinojmë, për shembull - vëren Paganini - që ne trajnojmë një sistem për njohjen e një sulmi kibernetik, nëse një sulmues ishte në gjendje të jepte informacion të rremë për sulmet në grupin e trajnimit, kjo mund ta çojë modelin të mos e njohë saktë një sulm. kur ndodh. Në realitet, modelet mund të sulmohen jo vetëm gjatë trajnimit, por edhe gjatë funksionimit, d.m.th. duke siguruar sisteme të bazuara në AI me të dhëna të dizajnuara për të ndikuar në sjelljen e tyre dhe për të nxitur sistemin të marrë vendime të pasakta.

Një tjetër teknikë e sulmit të të dhënave, e njohur si një sulm konkluzion, është një përpjekje për të marrë informacion të ndjeshëm nga modeli i AI përmes një serie pyetjesh ad hoc. Këto sulme mund të shfrytëzohen për të anashkaluar kufizimet e vendosura mbi modelin në përsëritjen me njerëzit. Një teknikë e mëtejshme sulmi mund të synojë të helmojë modelin e inteligjencës artificiale të përdorur nga një sistem. Ai mund të kryhet në faza të ndryshme të procesit të trajnimit, nga mbledhja e të dhënave deri tek vetë trajnimi. Ndonjëherë quhet edhe ndryshimi i peshave të modelit, që është aftësia e një sulmuesi për të ndryshuar drejtpërdrejt peshat e modelit gjatë fazës së stërvitjes.

Konkluzione

Sistemet e bazuara në inteligjencën artificiale, si çdo sistem tjetër teknologjik, janë të prekshëm ndaj sulmeve kibernetike. Eksperti i sigurisë Pierluigi Paganini rekomandon të qëndroni vigjilent ndaj peizazhit të kërcënimit në zhvillim dhe të mbroni pajisjet tuaja dhe infrastrukturën ku punoni.