Podeľ sa o inšpiráciu – zdieľaj článok, ktorý ťa nadchol!

Spoločnosť OpenAI priznala, že správy posielané cez ChatGPT nemusia byť úplne súkromné, pokiaľ ide o potenciálne hrozby alebo násilné správanie. Ak používateľ vyjadruje vážnu hrozbu ublíženia niekomu inému, správy môžu byť:

Tvoje správy v ChatGPT nie sú úplne súkromné – môžu ich poslať polícii
  • skontrolované automatickými filtrami v reálnom čase, ktoré hľadajú obsah porušujúci pravidlá bezpečnosti.
  • zaslané na preskúmanie ľuďmi.
  • v prípade, že sa identifikuje bezprostredné nebezpečenstvo fyzickej ujmy niekoho iného, môže dôjsť k odoslaniu informácií polícii či ďalším relevantným bezpečnostným orgánom.

Zároveň OpenAI uvádza, že správy naznačujúce sebapoškodzovanie alebo samovražedné myšlienky nie sú automaticky odovzdávané polícii; firma tvrdí, že zachováva tento typ interakcií v ochrannom režime vzhľadom na súkromie používateľov.

Ďalší zaujímavý článok zadarmo:  Vedeli ste, že pradenie mačky má liečivé účinky? Vibrácie podporujú hojenie rán, zlomenín a dokonca znižujú bolesť

Kedy môže dôjsť k zásahu políciou

Nie všetky správy, ktoré opisujú násilie alebo hrozby, automaticky znamenajú nahlásenie polícii. Tu sú kľúčové spúšťače, kedy sa hrozba môže eskalovať:

  • Hrozba voči iným osobám: Ak sa v rozhovore objavia prvky plánovania alebo vyjadrenia, že používateľ chce fyzicky ublížiť niekomu inému.
  • Bezprostredné nebezpečenstvo – nie iba obecné vyjadrenia, ale také, ktoré vyvolávajú podozrenie.
  • Ľudia rozhodnú – po kontrole automatickým systémom sa správa dostane na ľudskú revíziu, ktorá posúdi, či ide o vhodný prípad na upozornenie polícii.

Čo OpenAI deklaruje o svojej politike ochrany súkromia

  • Firma uvádza, že sebapoškodzovanie, vrátane myšlienok na samovraždu, nie je predmetom automatického odovzdávania polícii. Cieľom je rešpektovať súkromie používateľa v takýchto citlivých situáciách.
  • OpenAI má viacero vrstiev ochrany – algoritmické detektory, klasifikátory obsahu, ľudskú revíziu. Tie sú navrhnuté tak, aby minimalizovali falošné pozitíva, ale aj tak uznávajú, že systém nie je dokonalý.
  • Spoločnosť pracuje na tom, aby zlepšila schopnosť rozpoznať nebezpečné správanie aj v dlhých alebo opakujúcich sa konverzáciách, kde ochranné mechanizmy podľa ich slov môžu byť menej spoľahlivé.
Ďalší zaujímavý článok zadarmo:  Tidsoptimista je človek, ktorý stále mešká, pretože verí, že má viac času než v skutočnosti

Obavy, kritika a veci na zamyslenie

  • Mnohí používatelia a súkromný sektor poukazujú na nejasnosti, čo presne znamená „bezprostredná hrozba“ – hranica medzi komentárom, vtipom, hyperbolou a reálnym plánom môže byť tenká.
  • Etické otázky: Do akej miery je akceptovateľné, aby súkromný rozhovor cez AI mohol byť prenesený tretej strane (polícii), aj keď používateľ neporušil zákon, ale systém to tak vyhodnotí?
  • Riziko falošných poplachov – automatické systémy môžu nesprávne identifikovať obsah, ktorého význam bol vysvetlený inak alebo ironicky.
  • Potreba transparentnosti: používatelia potrebujú jasne vedieť, ktoré typy správ môžu viesť k akcii, ako dlho sa správy ukladajú, kto k nim má prístup a aké možnosti majú používatelia na odvolanie či spresnenie.
Ďalší zaujímavý článok zadarmo:  Ľudské sliny pomáhajú rýchlejšie hojiť rany ako niektoré antiseptiká

V skratke

BodZhrnutie
Čítajú ChatGPT správy?Áno – ak obsahuje indikáciu, že používateľ plánuje ublížiť iným, správa môže byť označená a predmetom revízie.
Poslali to polícii?V prípadoch vážneho, bezprostredného ohrozenia môže OpenAI informovať policajné orgány.
Sebapoškodzovanie vs. hrozba proti inýmSebapoškodzovanie nie je automaticky hlásené; hrozba voči iným môže byť.
Súkromie má hraniceOpenAI má viacúrovňový systém ochrany, ale priznáva, že niektoré situácie sú zložité; pri riziku fyzickej ujmy sú hranice súkromia posunuté.


Podeľ sa o inšpiráciu – zdieľaj článok, ktorý ťa nadchol!

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *