Uwaga!

Chcesz otrzymywać nowinki, ciekawostki i poradniki dotyczące AI i Deepfake prosto na swój adres email? Koniecznie zapisz się do naszego newslettera!







Zamknij to okno
a heart is shown on a computer screen

Character AI zakazuje romansowania na swojej platformie

Większe bezpieczeństwo na Character AI – zmiany w trosce o nastolatków

Character.AI, platforma, która pozwala na rozmowy z wirtualnymi osobowościami, wprowadza nowe funkcje, mające na celu zwiększenie bezpieczeństwa swoich użytkowników, szczególnie tych młodszych. Mowa tu o nowej wersji modelu AI dostosowanego do nastolatków oraz systemie kontroli rodzicielskiej, który pozwoli lepiej zarządzać czasem spędzanym w serwisie przez młodych ludzi.

Nowe granice w Character AI dla młodszych użytkowników

Jednym z kluczowych elementów tych zmian jest podział na wersje modelu przeznaczone dla dorosłych i nastolatków. Dla użytkowników poniżej 18 roku życia Character.AI przygotowało bardziej restrykcyjne zasady. Model dla młodszych użytkowników nie dopuszcza do romantycznych czy sugestywnych interakcji, a także posiada zaawansowane filtry tekstowe, które skuteczniej wykrywają próby obejścia ograniczeń.

Co więcej, młodzi użytkownicy nie mogą już edytować odpowiedzi chatbota w celu obejścia zakazanych treści. Jak wyjaśnia Character.AI: chodzi o to, by rozmowy z wirtualnymi postaciami pozostały bezpieczne i wolne od niestosownych treści.

Zadbano również o sytuacje, w których rozmowy mogą dotykać delikatnych tematów, takich jak samookaleczenie czy myśli samobójcze. W takich przypadkach platforma automatycznie oferuje użytkownikowi pomoc w postaci linku do National Suicide Prevention Lifeline – organizacji wspierającej osoby w trudnej sytuacji psychicznej.

Jak Character.AI stawia na kontrolę i odpowiedzialność

Wprowadzenie nowych funkcji wspiera nie tylko bezpieczeństwo nastolatków, ale również umożliwia rodzicom większą kontrolę nad tym, jak ich dzieci korzystają z platformy. Już wkrótce rodzice będą mogli śledzić czas spędzany na stronie oraz sprawdzać, z którymi chatbotami ich dzieci nawiązują kontakt najczęściej. To świetne rozwiązanie, by zachować równowagę między technologiczną kreatywnością a zdrowymi nawykami korzystania z internetu.

Na co jeszcze zwrócono uwagę?

  • Każda godzina rozmowy z chatbotem kończy się powiadomieniem przypominającym o zrobieniu sobie przerwy – to ukłon w stronę wszystkich użytkowników, którzy z czasem mogą tracić poczucie rzeczywistości.
  • Informacje o „tożsamości” wirtualnych osobowości stały się bardziej widoczne. Zamiast drobnego przypisu, użytkownicy zobaczą wyraźniejsze komunikaty, zwłaszcza w przypadku chatbotów opisujących się jako lekarze czy terapeuci. Platforma jasno ostrzega, że żadna z postaci AI nie powinna być traktowana jako źródło fachowej porady czy diagnozy medycznej. Pomyślcie o takim ostrzeżeniu jak duży, żółty znak drogowy z napisem: „Hej, to tylko zabawa, nie oczekuj, że rozwiążę twoje problemy życiowe”.

O krok dalej – ciągłe zmiany dla większego bezpieczeństwa

Twórcy Character.AI nie ukrywają, że bezpieczeństwo użytkowników to ich długofalowe zobowiązanie. Pracują w bliskiej współpracy z ekspertami ds. bezpieczeństwa młodzieży online, aby zmiany na platformie odpowiadały na potrzeby użytkowników i aktualne trendy w sieci. Te modyfikacje są również częścią szeroko zakrojonego planu usuwania imitacji zastrzeżonych prawem postaci, co pokazuje, że platforma coraz bardziej troszczy się o przestrzeganie etyki i prawa.

Mimo wszystko pozostaje otwarte pytanie: czy użytkownicy przyzwyczają się do dodatkowych restrykcji, czy może będą próbować nowych sposobów ich ominięcia? Charakterystyka takich platform ewoluuje, a bezpieczeństwo wymaga ciągłego doskonalenia.

Ebook AI

Newsletter

Zapisz się, a będziesz otrzymywać ciekawostki z branży AI i Deepfake, oraz dostaniesz specjalny prezent – kompendium wiedzy o ChatGPT.








Warto

NordVPN
Ogrovision - Ogród AI
Życzenia AI

Facebook


Twitter

Ads Blocker Image Powered by Code Help Pro

Wykryto AdBlocka!

Wygląda na to, że używasz blokady reklam. Reklamy pomagają nam utrzymać tę stronę. Wyłącz ją proszę.