Trendi i karikaturave të krijuara nga Inteligjenca Artificiale (IA) që shfaq gjithçka që një chatbot di për dikë në një fotografi shumëngjyrëshe, mund të paraqesë rreziqe serioze për sigurinë, sipas ekspertëve të sigurisë kibernetike.
Përdoruesit ngarkojnë një foto të vetes me një logo të kompanisë ose detaje rreth rolit të tyre dhe i kërkojnë ChatGPT të OpenAI të krijojë një karikaturë të tyre dhe të punës së tyre duke përdorur atë që chatbot di rreth tyre.
Ekspertët e sigurisë kibernetike thanë se sfidat e rrjeteve sociale, të tilla si karikaturat e Al, mund t’u ofrojnë mashtruesve një thesar informacioni të vlefshëm.
Një imazh i vetëm, i shoqëruar me detaje personale, mund të jetë më zbulues nga sa e kuptojnë përdoruesit.
“Po bën punën e mashtruesve për ta – duke u dhënë atyre një përfaqësim vizual të asaj se kush je”, sipas Bob Long, nënkryetar në kompaninë e vërtetimit të moshës Daon.
Çfarë ndodh me imazhet pasi ngarkohen?
Kur një përdorues ngarkon një imazh në një chatbot, sistemi e përpunon imazhin për të nxjerrë të dhëna, të tilla si emocioni i personit, mjedisi ose informacioni që mund të zbulojë vendndodhjen e tij, sipas konsulentit të sigurisë kibernetike Jake Moore.
Ky informacion mund të ruhet më pas për një periudhë të panjohur kohore.
Long tha se imazhet e mbledhura nga përdoruesit mund të përdoren dhe të ruhen për të trajnuar gjeneratorët e imazheve të Al si pjesë e të dhënave të tyre.
Një shkelje e të dhënave në një kompani si OpenAI mund të nënkuptojë që të dhënat e ndjeshme, siç janë imazhet e ngarkuara dhe informacionet personale të mbledhura nga chatbot-i, mund të bien në duart e aktorëve të këqij që mund t’i shfrytëzojnë ato.
Në duar të gabuara, një imazh i vetëm me rezolucion të lartë mund të përdoret për të krijuar llogari të rreme në rrjete sociale, që mund të përdoren për të kryer një mashtrim, sipas Charlotte Wilson, drejtuese e ndërmarrjes në Check Point, një kompani izraelite e sigurisë kibernetike.
“Fotot i ndihmojnë kriminelët të kalojnë nga mashtrimet e përgjithshme në imitim të personalizuar dhe me bindje të lartë”, tha ajo.
Cilësimet e privatësisë së OpenAI përcaktojnë se imazhet e ngarkuara mund të përdoren për të përmirësuar modelin, gjë që mund të përfshijë trajnimin e tij.
Kur u pyet në lidhje me cilësimet e privatësisë së modelit, ChatGPT sqaroi se kjo nuk do të thotë që çdo foto vendoset në një bazë të dhënash publike.
Në vend të kësaj, chatbot tha se përdor modele nga përmbajtja e përdoruesit për të rafinuar mënyrën se si sistemi gjeneron imazhe.
Çfarë duhet të bëni nëse doni të merrni pjesë në trendet e Al?
Për ata që ende duan të ndjekin trendin, ekspertët rekomandojnë kufizimin e asaj që ndajnë.
Wilson tha se përdoruesit duhet të shmangin ngarkimin e imazheve që zbulojnë ndonjë informacion identifikues.
“Priteni mirë, mbajeni sfondin të thjeshtë dhe mos përfshini distinktivë, uniforma, të dhëna për vendndodhjen ose ndonjë gjë tjetër që ju lidh me një punëdhënës ose një rutinë”, tha ajo.
Wilson paralajmëroi kundër shpërndarjes së tepërt të informacionit personal në njoftime, siç është pozita e punës, qyteti ose punëdhënësi.
Ndërkohë, Moore rekomandoi shqyrtimin e cilësimeve të privatësisë përpara se të merrni pjesë, duke përfshirë edhe opsionin për të hequr të dhënat nga trajnimi i Al.
OpenAI ka një portal privatësie që u lejon përdoruesve të zgjedhin të mos marrin pjesë në trajnimin e të dhënave të Al, duke klikuar te “do not train on my content”.
Sipas ligjit të BE-së, përdoruesit mund të kërkojnë fshirjen e të dhënave personale të mbledhura nga kompania.
Megjithatë, OpenAI vëren se mund të ruajë disa informacione edhe pas fshirjes për të adresuar mashtrimet, abuzimet dhe shqetësimet e sigurisë. /Telegrafi/