W ostatnim czasie OpenAI podjęło zdecydowane działania w związku z nadużyciami ChatuGPT, które angażują chińskie służby bezpieczeństwa. Blokada kont, które wykorzystywały AI do tworzenia narzędzi inwigilacyjnych, stała się kluczowym krokiem w walce z autorytarnymi reżimami. Kontrowersje związane z deepfake’ami i manipulacją wizerunkiem również narastają, co prowadzi do rosnącej presji na wprowadzenie surowszych regulacji.
OpenAI przeciwko cyberinwigilacji
OpenAI zablokowało kilka chińskojęzycznych kont, które wykorzystywały funkcjonalność ChatGPT do prowadzenia masowej inwigilacji w sieci. Narzędzia takie jak „Qianyue Overseas Public Opinion AI Assistant” służyły analizie treści na popularnych platformach społecznościowych, dostarczając w czasie rzeczywistym raporty dla chińskich służb. Zidentyfikowano, że owe działania podejmowane były głównie podczas godzin pracy w Chinach, co wskazuje na manualną obsługę systemów AI, a nie ich automatyczne wykorzystanie. To jasny znak, że OpenAI zaciekle walczy ze wszelkimi próbami wykorzystania AI w celach szkodliwych.
Dla ciekawskich, więcej informacji na temat działań OpenAI można znaleźć w naszym artykule.
Problemy z deepfake'ami i potrzeba regulacji
W miarę rozwoju technologii sztucznej inteligencji, nasila się również problem związany z deepfake'ami. Organizacje takie jak Public Citizen nieustannie apelują o wprowadzenie zmian w regulacjach, wskazując na zagrożenia związane z realistycznymi fałszywkami, które mogą być masowo produkowane przez aplikacje takie jak Sora 2. Kluczowe aspekty to:
- Brak jednolitych regulacji UE na temat deepfake'ów do 2025 roku uznano za dużą porażkę.
- Wprowadzenie regulacji takich jak AI Act, choć krok w dobrą stronę, jest niewystarczające.
- Konieczność wymogu ujawniania treści generowanych przez AI dla zwiększenia transparentności.
- Zaostrzenie zasad bezpieczeństwa w celu ograniczenia nadużyć AI.
Dzięki nowym przepisom ma zwiększyć się odpowiedzialność za generowane treści oraz ochrona przed nadużyciami. Artykuł o prawach autorskich i AI opublikował PrawnikIT.
Zarówno blokowanie nieodpowiednich praktyk, jak i wdrażanie nowych regulacji, są niezbędne, by technologia AI rozwijała się odpowiedzialnie. Walka z nadużyciami ChatuGPT czy manipulacjami wizerunkowymi jest kluczowa w obliczu rosnących możliwości sztucznej inteligencji. Zapraszamy do śledzenia dalszych wydarzeń na naszym portalu o sztucznej inteligencji.





