Studimi: Mos i tregoni ChatGPT për ish të dashurit, do përdorë sekretet tuaja kundër jush!

Një studim i fundit paralajmëron kundër ndarjes së informacionit personal me sistemet e AI si ChatGPT ose Replika, pasi ato mund të përdoren kundër përdoruesve në të ardhmen.

Biseda me miqtë e AI si ChatGPT ose Replika mund të ndihet si një lehtësim, një hapësirë ​​e sigurt për t'u hapur. Por një studim i fundit këshillon që të mos përhapni sekretet tuaja më të thella në këto mjete të AI. Pse? Sepse të dhënat tuaja personale mund të përfundojnë duke u përdorur kundër jush më vonë, sipas disa studiuesve.

Paralajmërimet për ndarjen e sekreteve dhe informacioneve personale me AI si ChatGPT janë të qarta dhe të qarta nga një profesor i shkencave kompjuterike të Universitetit të Oksfordit, Mike Woolridge. Ai thotë se këto sisteme të AI, megjithëse mund të duken të kuptueshme, në fakt nuk ndjejnë asgjë. Ata janë të programuar për të dhënë përgjigje që ju kënaqin, por atyre u mungojnë emocionet ose përvojat e vërteta.

"Teknologjia është krijuar në thelb për t'ju treguar atë që dëshironi të dëgjoni, kjo është fjalë për fjalë gjithçka që po bën," tha Mike Woolridge për Daily Mail. “Nuk ka empati. Nuk ka simpati.

Woolridge paralajmëroi gjithashtu se çdo gjë që ndani me ChatGPT mund të përfundojë drejtpërdrejt në versionet e ardhshme të sistemit. Ai e krahasoi atë me paralajmërimet e hershme për ndarjen e gjërave personale në platforma si Facebook. Pra, ai sugjeron të shmangni bisedimet e thella ose të ndjeshme në ChatGPT për ta luajtur atë të sigurt.

Probleme ka pasur edhe më parë. Rreth 1.2 milionë përdoruesve u zbuluan historitë e tyre të bisedave për shkak të një gabimi të madh vitin e kaluar. Italia madje ndaloi përkohësisht ChatGPT për shkak të kësaj.

Për të rregulluar këto çështje, OpenAI, kompania pas ChatGPT, bëri disa ndryshime. Tani, përdoruesit mund të çaktivizojnë historikun e bisedave, por të dhënat mbeten ende rreth një muaj përpara se të fshihen përgjithmonë. Ata pretendojnë se e kontrollojnë vetëm nëse ka ndonjë problem dhe më pas e fshijnë atë përgjithmonë.

Pavarësisht këtyre ndryshimeve, ka ende një rrezik. Një ekspert sigurie i quajtur Johann Rehberger gjeti një problem me ChatGPT që mund të rrjedhë të dhëna. Ai e raportoi atë vitin e kaluar, por një rregullim i duhur nuk ka ndodhur ende.

Kjo tregon se edhe pse ata po përpiqen, ka ende një shans që gjërat tuaja private të mos jenë aq të sigurta sa duhet të jenë kur përdorni ChatGPT. Pra, është më mirë të jeni të kujdesshëm për atë që ndani në këto platform.