Tech

Character.AI: Koniec z rozmowami z nastolatkami

Character.AI, popularna platforma chatbotów, na której użytkownicy odgrywają role z różnymi osobami, nie będzie już umożliwiać posiadaczom kont poniżej 18 roku życia prowadzenia otwartych rozmów z chatbotami, ogłosiła w środę firma. Zacznie się także opierać na technikach zapewniania wieku, aby zapewnić, że nieletni nie będą mogli otwierać rachunków osobom dorosłym.

Do tego dramatycznego posunięcia doszło zaledwie sześć tygodni po ponownym pozwaniu Character.AI do sądu federalnego przez wielu rodziców nastolatków, którzy zmarli w wyniku samobójstwa lub rzekomo odnieśli poważne obrażenia, w tym wykorzystywanie seksualne; rodzice twierdzą, że za szkody odpowiada korzystanie z platformy przez ich dzieci. W październiku 2024 r. Megan Garcia złożyła pozew o spowodowanie śmierci bezprawnej, starając się pociągnąć firmę do odpowiedzialności za samobójstwo jej syna, twierdząc, że jej produkt był niebezpiecznie wadliwy.

Zwolennicy bezpieczeństwa w Internecie uznali niedawno, że Character.AI jest niebezpieczna dla nastolatków po przetestowaniu platformy tej wiosny i zarejestrowaniu setek szkodliwych interakcji, w tym przemocy i wykorzystywania seksualnego.

W zeszłym roku Character.AI stanęła przed presją prawną i wdrożyła kontrolę rodzicielską i filtry treści, aby poprawić bezpieczeństwo nastolatków.

ZOBACZ TAKŻE:

Eksperci twierdzą, że Character.AI nie jest bezpieczna dla nastolatków

W wywiadzie dla Mashable dyrektor generalny Character.AI, Karandeep Anand, określił nową politykę jako „odważną” i zaprzeczył, jakoby ograniczanie jawnych rozmów za pomocą chatbota z nastolatkami było odpowiedzią na konkretne obawy związane z bezpieczeństwem.

Zamiast tego Anand uznał tę decyzję za „słuszną” w świetle szerszych pytań bez odpowiedzi na temat długoterminowych skutków zaangażowania chatbota na nastolatków. Anand nawiązał do niedawnego uznania OpenAI po samobójstwie nastolatka, że ​​długie rozmowy mogą stać się nieprzewidywalne.

Anand ustanowił nowy standard polityki Character.AI: „Mam nadzieję, że ustawi to wszystko na ścieżkę, na której sztuczna inteligencja będzie nadal bezpieczna dla wszystkich”.

Dodał, że decyzja firmy nie ulegnie zmianie, niezależnie od reakcji użytkowników.

Jak będzie teraz wyglądać Character.AI dla nastolatków?

W poście na blogu ogłaszającym nową politykę Character.AI przeprosił swoich nastoletnich użytkowników.

Raport trendów możliwych do zszycia

„Nie lekceważymy tego kroku polegającego na usunięciu otwartego czatu z postaciami, ale uważamy, że jest to właściwa decyzja, biorąc pod uwagę zadawane pytania dotyczące tego, jak nastolatki pracują i powinny wchodzić w interakcje z tą nową technologią” – czytamy w poście na blogu.

Obecnie użytkownicy w wieku od 13 do 17 lat mogą wysyłać wiadomości za pośrednictwem chatbotów na platformie. Ta funkcja przestanie istnieć najpóźniej 25 listopada. Do tego czasu konta zarejestrowane dla nieletnich będą objęte limitami czasowymi rozpoczynającymi się od dwóch godzin dziennie. Limit ten będzie się zmniejszał w miarę zbliżania się przejścia z otwartych czatów.

Character.AI będzie widzieć te powiadomienia o nadchodzących zmianach na platformie.
Kredyty: dzięki uprzejmości Character.AI

Choć otwarte czaty znikną, historia rozmów nastolatków z indywidualnymi chatbotami pozostanie nienaruszona. Anand powiedział, że użytkownicy mogą korzystać z tych materiałów, aby generować krótkie historie audio i wideo za pomocą swoich ulubionych chatbotów. W ciągu najbliższych kilku miesięcy Character.AI będzie także badać nowe funkcje, takie jak rozgrywka. Anand wierzy, że nacisk na „zabawę ze sztuczną inteligencją” bez otwartych rozmów zaspokoi twórcze zainteresowanie nastolatków platformą.

„Przychodzą, żeby odegrać jakąś rolę i przychodzą, żeby się dobrze bawić” – powiedział Anand.

Stanowczo twierdził, że istniejące historie czatów zawierające wrażliwe lub zabronione treści, które mogły nie zostać wcześniej wykryte przez filtry, takie jak przemoc lub seks, nie znajdą się w nowych relacjach audio lub wideo.

Rzecznik Character.AI powiedział Mashable, że zespół ds. zaufania i bezpieczeństwa firmy zapoznał się z wynikami raportu opublikowanego wspólnie przez Heat Initiative we wrześniu, który dokumentował szkodliwą wymianę zdań między chatbotem a kontami testowymi zarejestrowanymi dla nieletnich. Zespół doszedł do wniosku, że niektóre rozmowy naruszały wytyczne dotyczące treści platformy, a inne nie. Próbował także powtórzyć ustalenia zawarte w raporcie.

„W oparciu o te wyniki ulepszyliśmy niektóre z naszych klasyfikatorów, zgodnie z naszym celem, jakim jest zapewnienie użytkownikom bezpiecznego i wciągającego korzystania z naszej platformy” – powiedział rzecznik.

Niezależnie od tego Character.AI natychmiast rozpocznie wdrażanie ubezpieczenia na wiek. Wprowadzenie efektu zajmie miesiąc i będzie miało wiele warstw. Anand powiedział, że firma samodzielnie buduje własne modele ubezpieczeń, ale będzie współpracować z firmą zewnętrzną w zakresie tej technologii.

Wykorzysta również odpowiednie dane i sygnały, takie jak to, czy użytkownik ma zweryfikowane konto w wieku powyżej 18 lat na innej platformie, aby dokładnie określić wiek nowych i istniejących użytkowników. Wreszcie, jeśli użytkownik chce zakwestionować określenie wieku przez Character.AI, będzie miał możliwość przeprowadzenia weryfikacji za pośrednictwem strony trzeciej, która będzie obsługiwać wrażliwe dokumenty i dane, w tym dane identyfikacyjne rządowe.

Wreszcie w ramach nowych zasad Character.AI tworzy i finansuje niezależną organizację non-profit o nazwie AI Safety Lab. Laboratorium skoncentruje się na „nowych technikach bezpieczeństwa”.

„Chcemy zaangażować ekspertów branżowych i innych partnerów, aby zapewnić dalsze bezpieczeństwo sztucznej inteligencji, zwłaszcza w dziedzinie rozrywki opartej na sztucznej inteligencji” – powiedział Anand.

Enlace de origen

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *