Novi trend vezan uz ChatGPT posljednjih tjedana preplavio je društvene mreže, no stručnjaci za kibernetičku sigurnost upozoravaju da bi bezazlena zabava mogla imati ozbiljne posljedice.
Stručnjaci upozoravaju kako umjetna inteligencija može prikupiti dovoljno podataka za uvjerljivo oponašanje osobe u manje od sat vremena, što korisnike izlaže krađi identiteta, prijevarama i narušavanju ugleda.
Na Instagramu, WhatsAppu, LinkedInu i platformi X sve je više karikatura koje prikazuju korisnike kroz prizmu umjetne inteligencije. Trend je brzo privukao i poznate osobe, uključujući sudionike reality emisija i medijske djelatnike. Generirane slike prikazuju poslove, hobije i osobnosti korisnika, često kroz humoristične i pretjerane prikaze.
Najčešće korišteni upit za generiranje takvih sadržaja glasi: “Stvori karikaturu mene i mog posla na temelju svega što znaš o meni.”
Iako se radi o zabavnom sadržaju, stručnjaci upozoravaju da popularnost ovakvih trendova potiče normalizaciju prekomjernog dijeljenja osobnih podataka.

Dr. Janet Bastiman, glavna podatkovna znanstvenica u tvrtki Napier AI, ističe kako umjetna inteligencija u vrlo kratkom vremenu može prikupiti dovoljno informacija za uvjerljivo oponašanje osobe.
Dodaje kako korisnici često ne znaju gdje se njihovi podaci pohranjuju, koliko dugo se čuvaju niti tko im može pristupiti. Prema njezinim riječima, takvi podaci mogu biti iskorišteni za stvaranje lažnih profila, deepfake sadržaja ili prijevara.
Matt Conlon, izvršni direktor i suosnivač tvrtke Cytidel, uspoređuje ovaj trend s ranim danima društvenih mreža poput Facebooka i Beba, kada su korisnici rado dijelili osobne informacije kroz viralne objave i kvizove, često nesvjesno otkrivajući odgovore na sigurnosna pitanja. Razlika je, naglašava, u današnjoj razini opsega i trajnosti podataka.
Prema njegovim riječima, korisnici često dodatno proširuju količinu osobnih informacija kako bi dobili preciznije rezultate umjetne inteligencije, čime zapravo treniraju sustave vrlo osjetljivim podacima. Jednom kada su ti podaci objavljeni, nema jamstva da ih je moguće u potpunosti ukloniti.
Stručnjaci upozoravaju i na moguće povijesne paralele. Dr. Andrew Bolster iz tvrtke Black Duck podsjeća na slučaj Cambridge Analytica iz 2018. godine, kada su podaci prikupljeni putem naizgled bezazlenih online kvizova korišteni za političko profiliranje korisnika i ciljano oglašavanje. Taj je skandal rezultirao višemilijunskim kaznama i ozbiljno narušio povjerenje u društvene mreže.
Popularnost aktualnog trenda potvrđuju i brojke. Tijekom vrhunca popularnosti, aplikacije za generiranje AI karikatura zabilježile su više od 245.000 dodatnih preuzimanja u samo tri dana, dok su preuzimanja nekih aplikacija porasla za više od 200 posto u tjedan dana.
Muhammad Yahya Patel, savjetnik za kibernetičku sigurnost u tvrtki Huntress, upozorava da učitavanje fotografija u AI sustave može uključivati obradu biometrijskih podataka poput strukture lica. Posebno problematično postaje kada korisnici dodatno dijele informacije poput imena, poslodavca, identifikacijskih oznaka ili poveznica na profile na društvenim mrežama.
Stručnjaci ističu da korisnici često ne čitaju pravila privatnosti te ne znaju kako se njihovi podaci mogu koristiti, uključujući mogućnost njihove daljnje prodaje ili zadržavanja bez jasnog vremenskog ograničenja.

Ipak, postoje određene mjere zaštite. Sigurnosni stručnjak Brian Higgins navodi kako korisnici mogu isključiti korištenje podataka za treniranje modela, koristiti privremene razgovore ili obrisati povijest komunikacije. Naglašava da je prije objave sadržaja generiranog umjetnom inteligencijom važno dobro razmotriti moguće posljedice.
Iako trendovi umjetne inteligencije nude zabavan i kreativan način izražavanja, stručnjaci upozoravaju da je važno zadržati oprez. Ono što danas izgleda kao bezazlena zabava moglo bi u budućnosti predstavljati ozbiljan sigurnosni rizik, prenose 24sata.hr.
(www.jabuka.tv)
The post Mislite da je zabavno? Stručnjaci upozoravaju zašto biste odmah trebali prestati s ChatGPT karikaturama first appeared on Jabuka.tv.











