Pedofilët po përdorin AI për t'i kthyer këngëtarët dhe yjet e filmit në fëmijë!
Pedofilët po përdorin inteligjencën artificiale (AI) për të krijuar imazhe të të famshmëve si fëmijë. Fondacioni Internet Watch (IWF) tha se imazhet e një këngëtareje të njohur femër të ri-imagjinuar si fëmijë po shpërndahen nga "grabitqarët".

Në një forum të errët të internetit, organizata bamirëse thotë se imazhet e aktorëve fëmijë po manipulohen gjithashtu për t'i bërë ato seksuale. Qindra imazhe të viktimave të vërteta të abuzimit seksual të fëmijëve po krijohen gjithashtu tani duke përdorur gjeneratorë imazhesh me porosi.

Detajet vijnë nga raporti i fundit i IWF për problemin në rritje, pasi përpiqet të rrisë ndërgjegjësimin për rreziqet e pedofilëve duke përdorur sisteme AI që mund të krijojnë imazhe nga udhëzime të thjeshta teksti.

Që kur këto sisteme të fuqishme të gjenerimit të imazheve hynë në domenin publik, studiuesit kanë paralajmëruar se ato kanë potencialin të keqpërdoren për të gjeneruar imazhe të paligjshme.

Në maj, Sekretarja e Brendshme Suella Braverman dhe Sekretari i Sigurisë Kombëtare të SHBA-së, Alejandro Mayorkas lëshuan një deklaratë të përbashkët duke u angazhuar për të trajtuar "rritje alarmante në imazhet e neveritshme të krijuara nga AI të fëmijëve që shfrytëzohen seksualisht nga pedofilët".

Raporti i IWF detajon se si studiuesit shpenzuan një muaj duke regjistruar imazhe të AI në një uebsajt të vetëm të abuzimit me fëmijët në rrjet të errët dhe gjetën gati 3000 imazhe sintetike që do të ishin të paligjshme sipas ligjit të Mbretërisë së Bashkuar.

Analistët thanë se ekziston një prirje e re e grabitqarëve që marrin fotografi të vetme të viktimave të njohura të abuzimit të fëmijëve dhe rikrijojnë shumë prej tyre në mjedise të ndryshme të abuzimit seksual.

Një dosje që ata gjetën përmbante 501 imazhe të një viktime të botës reale, e cila ishte rreth 9-10 vjeç kur iu nënshtrua abuzimit seksual. Në dosje, grabitqarët ndanë gjithashtu një skedar të modelit të AI të rregulluar mirë për të lejuar të tjerët të gjenerojnë më shumë imazhe të saj.

IWF thotë se disa nga imazhet, duke përfshirë atë të të famshëmve si fëmijë, janë jashtëzakonisht realiste dhe do të ishin të padallueshme për sytë e patrajnuar.

Analistët panë imazhe të këngëtareve dhe yjeve të filmit, kryesisht femra, të cilat ishin plakur duke përdorur softuerin e imazhit për t'i bërë ato të dukeshin si fëmijë.

Raporti nuk identifikoi se cilët personazhe të famshëm ishin shënjestruar.

Organizata bamirëse tha se po ndante hulumtimin për ta vendosur çështjen në rendin e ditës në Samitin e AI të qeverisë së Mbretërisë së Bashkuar javën e ardhshme në Bletchley Park.

Në një muaj, IWF hetoi 11,108 imazhe të AI, të cilat ishin shpërndarë në një forum të abuzimit me fëmijët në ueb të errët.

Nga këto, 2,978 u konfirmuan si imazhe që dështojnë ligjin në Mbretërinë e Bashkuar - që do të thotë se ato përshkruanin abuzimin seksual të fëmijëve

Më shumë se një në pesë nga këto imazhe (564) u klasifikuan si Kategoria A, lloji më serioz i imazheve

Më shumë se gjysma (1,372) e këtyre imazheve përshkruanin fëmijë të moshës së shkollës fillore (shtatë deri në 10 vjeç)

Përveç kësaj, 143 imazhe përshkruanin fëmijë të moshës tre deri në gjashtë vjeç, ndërsa dy imazhe përshkruanin foshnja (nën dy vjeç).

Në qershor, IWF paralajmëroi se grabitqarët kishin filluar të eksploronin përdorimin e AI për të bërë imazhe të shthurura të fëmijëve, por tani IWF thotë se frika është një realitet.

"Makthet tona më të këqija janë bërë realitet," tha Susie Hargreaves, shefja ekzekutive e IWF.

"Në fillim të këtij viti, ne paralajmëruam se imazhet e inteligjencës artificiale së shpejti mund të bëhen të padallueshme nga fotot reale të fëmijëve që vuajnë nga abuzimi seksual dhe se ne mund të fillojmë të shohim këto imazhe duke u përhapur në një numër shumë më të madh. Tani e kemi kaluar atë pikë."

Raporti i IWF përsërit dëmin real të imazheve të AI. Edhe pse fëmijët nuk dëmtohen drejtpërdrejt në krijimin e përmbajtjes, imazhet normalizojnë sjelljen grabitqare dhe mund të shpërdorojnë burimet e policisë ndërsa hetojnë fëmijët që nuk ekzistojnë.

Në disa skenarë po hulumtohen edhe forma të reja të ofendimit, duke krijuar kompleksitete të reja për agjencitë e zbatimit të ligjit.

Për shembull, IWF gjeti qindra imazhe të dy vajzave, fotografitë e të cilave nga një fotosesion në një agjenci modelimi jo nudo ishin manipuluar për t'i vendosur ato në skenat e abuzimit seksual të Kategorisë A.

Realiteti është se ata tani janë viktima të veprave të kategorisë A që nuk kanë ndodhur kurrë.

What's your reaction?


You may also like

Comments

https://thetechnocast.com/assets/images/user-avatar-s.jpg

0 comment

Write the first comment for this!

Facebook Conversations