Spoločnosť OpenAI priznala, že správy posielané cez ChatGPT nemusia byť úplne súkromné, pokiaľ ide o potenciálne hrozby alebo násilné správanie. Ak používateľ vyjadruje vážnu hrozbu ublíženia niekomu inému, správy môžu byť:

- skontrolované automatickými filtrami v reálnom čase, ktoré hľadajú obsah porušujúci pravidlá bezpečnosti.
- zaslané na preskúmanie ľuďmi.
- v prípade, že sa identifikuje bezprostredné nebezpečenstvo fyzickej ujmy niekoho iného, môže dôjsť k odoslaniu informácií polícii či ďalším relevantným bezpečnostným orgánom.
Zároveň OpenAI uvádza, že správy naznačujúce sebapoškodzovanie alebo samovražedné myšlienky nie sú automaticky odovzdávané polícii; firma tvrdí, že zachováva tento typ interakcií v ochrannom režime vzhľadom na súkromie používateľov.
Kedy môže dôjsť k zásahu políciou
Nie všetky správy, ktoré opisujú násilie alebo hrozby, automaticky znamenajú nahlásenie polícii. Tu sú kľúčové spúšťače, kedy sa hrozba môže eskalovať:
- Hrozba voči iným osobám: Ak sa v rozhovore objavia prvky plánovania alebo vyjadrenia, že používateľ chce fyzicky ublížiť niekomu inému.
- Bezprostredné nebezpečenstvo – nie iba obecné vyjadrenia, ale také, ktoré vyvolávajú podozrenie.
- Ľudia rozhodnú – po kontrole automatickým systémom sa správa dostane na ľudskú revíziu, ktorá posúdi, či ide o vhodný prípad na upozornenie polícii.
Čo OpenAI deklaruje o svojej politike ochrany súkromia
- Firma uvádza, že sebapoškodzovanie, vrátane myšlienok na samovraždu, nie je predmetom automatického odovzdávania polícii. Cieľom je rešpektovať súkromie používateľa v takýchto citlivých situáciách.
- OpenAI má viacero vrstiev ochrany – algoritmické detektory, klasifikátory obsahu, ľudskú revíziu. Tie sú navrhnuté tak, aby minimalizovali falošné pozitíva, ale aj tak uznávajú, že systém nie je dokonalý.
- Spoločnosť pracuje na tom, aby zlepšila schopnosť rozpoznať nebezpečné správanie aj v dlhých alebo opakujúcich sa konverzáciách, kde ochranné mechanizmy podľa ich slov môžu byť menej spoľahlivé.
Obavy, kritika a veci na zamyslenie
- Mnohí používatelia a súkromný sektor poukazujú na nejasnosti, čo presne znamená „bezprostredná hrozba“ – hranica medzi komentárom, vtipom, hyperbolou a reálnym plánom môže byť tenká.
- Etické otázky: Do akej miery je akceptovateľné, aby súkromný rozhovor cez AI mohol byť prenesený tretej strane (polícii), aj keď používateľ neporušil zákon, ale systém to tak vyhodnotí?
- Riziko falošných poplachov – automatické systémy môžu nesprávne identifikovať obsah, ktorého význam bol vysvetlený inak alebo ironicky.
- Potreba transparentnosti: používatelia potrebujú jasne vedieť, ktoré typy správ môžu viesť k akcii, ako dlho sa správy ukladajú, kto k nim má prístup a aké možnosti majú používatelia na odvolanie či spresnenie.
V skratke
Bod | Zhrnutie |
---|---|
Čítajú ChatGPT správy? | Áno – ak obsahuje indikáciu, že používateľ plánuje ublížiť iným, správa môže byť označená a predmetom revízie. |
Poslali to polícii? | V prípadoch vážneho, bezprostredného ohrozenia môže OpenAI informovať policajné orgány. |
Sebapoškodzovanie vs. hrozba proti iným | Sebapoškodzovanie nie je automaticky hlásené; hrozba voči iným môže byť. |
Súkromie má hranice | OpenAI má viacúrovňový systém ochrany, ale priznáva, že niektoré situácie sú zložité; pri riziku fyzickej ujmy sú hranice súkromia posunuté. |