Umělá inteligence je super, pokud slouží primárně člověku, a je tak dobrým sluhou. V opačném případě to smrdí vždy průšvihem. Své by o tom mohl vyprávět zaměstnanec Samsungu, který omylem sdělil důvěryhodné informace ohledně společnosti. Proč je nebezpečné sdílet důležité informace s umělou inteligencí?
Vedené záznamy
Problém spočívá v tom, že ChatGPT zaznamenává každou konverzaci, z čehož plynou potíže spojené se zabezpečením a soukromím, není tedy divu, že poté lidé mohou litovat svého rozhodnutí. Veškeré informace ohledně záznamu konverzací najdete v zásadách ochrany osobních údajů OpenUI, podmínkách služeb a na FAQ stránce. Každým dnem nejen lidé, ale také společnosti využívají služeb tohoto prostředku, což může znamenat v budoucnu potencionální problém.
Případ zaměstnance Samsungu
Podle nedávných informací předal zaměstnanec Samsungu během dvaceti dní celkem třikrát citlivé informace ChatGPT. ChatGPT je obecně pod palbou kvůli problémům s ochranou soukromí. Některé země dokonce zakázaly používat ChatGPT, aby ochránily nejen své občany. Kdekoho by napadlo, že společnosti budou jednat v rámci bezpečí přísněji, ale opak se zdá pravdou. Co se týče nedávné kauzy, může být společnost Samsung naštěstí relativně v klidu. Uniklá data se týkala pouze interních obchodních praktik a zápisu z týmové schůzky. Bohužel do budoucna to znamená vyšší výskyt phishingových útoků a krádeží identity.
Jakým způsobem dochází k úniku dat?
Zásady ochrany osobních údajů ChatGPT jasně říkají, že zaznamenávají všechny konverzace, které následně sdílí s jinými společnostmi a jejich trenéry UI. Veškerá konverzace je uložena na serverech ChatGPT. Většina úniků dat je vinou lidské hlouposti a neopatrnosti, pokud to tedy někdo nedělá záměrně. Jako exemplární příklad poslouží seznam kontaktů, který je zkopírován a následně předán ChatGPT, aby jej roztřídil podle specifického požadavku. Aniž byste tedy o tom věděli, váš kontakt může být v budoucnu použit nějakou společností.
Zdroj: https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-use-by-staff-after-leak#xj4y7vzkg