Niedawne kontrowersje dot GoogleModel Gemmy po raz kolejny uwypuklił niebezpieczeństwa związane ze stosowaniem modeli testowych dla deweloperów oraz przejściowy charakter dostępności modeli.
Google ma swoje Model Gemmy 3 z AI Studio po oświadczeniu senator Marshy Blackburn (R-Tenn.), że model Gemma celowo halucynuje nieprawdę o niej. Blackburn stwierdziła, że modelka sfabrykowała wiadomości na jej temat, które wykraczały poza „nieszkodliwe halucynacje” i stanowiły akt zniesławienia.
W odpowiedzi Google opublikowany na X 31 października ogłoszono, że usuną Gemmę z AI Studio, stwierdzając, że ma to na celu „zapobiegnięcie nieporozumieniom”. Gemma pozostaje dostępna poprzez API.
Jest również dostępne za pośrednictwem AI Studio, które firma określiła jako „narzędzie dla programistów (aby z niego korzystać, musisz zweryfikować, czy jesteś programistą). Widzieliśmy teraz raporty o osobach niebędących programistami, próbujących używać Gemmy w AI Studio i zadających jej merytoryczne pytania. Nigdy nie planowaliśmy, aby było to narzędzie lub model dla konsumentów ani używane w ten sposób. Aby zapobiec temu zamieszaniu, dostęp do Gemmy nie jest już dostępny w AI Studio.
Żeby było jasne, Google ma prawo usunąć Twój model ze swojej platformy, zwłaszcza jeśli ludzie odkryli halucynacje i nieprawdy do rozpowszechniania. Podkreśla także niebezpieczeństwo polegania głównie na modelach eksperymentalnych i wyjaśnia, dlaczego programiści korporacyjni muszą zapisywać projekty, zanim modele sztucznej inteligencji zostaną wycofane lub usunięte. Firmy technologiczne, takie jak Google, w dalszym ciągu borykają się z kontrowersjami politycznymi, które często wpływają na ich wdrażanie.
Firma VentureBeat skontaktowała się z Google w celu uzyskania dodatkowych informacji i wskazano ją na ogłoszenie z 31 października. Skontaktowaliśmy się także z biurem senatora Blackburna, które podtrzymało swoje stanowisko w oświadczeniu, że firmy zajmujące się sztuczną inteligencją powinny „zamknąć (modele) do czasu, aż będzie można je kontrolować”.
Eksperymenty deweloperskie
Rodzina modeli Gemma, w skład której wchodzi m.in Wersja o parametrach 270Mnajlepiej nadaje się do małych, szybkich aplikacji i zadań, które można wykonać na urządzeniach takich jak smartfony i laptopy. Google stwierdziło, że modele Gemma „stworzono specjalnie dla społeczności programistów i badaczy. Nie mają na celu dostarczania informacji ani użytku konsumenckiego”.
Niemniej jednak osoby niebędące programistami nadal mogą uzyskać dostęp do Gemmy, ponieważ jest ona włączona Platforma AI Studiobardziej przyjazna dla początkujących przestrzeń dla programistów do zabawy z modelami Google AI w porównaniu z Vertex AI. Zatem nawet jeśli Google nigdy nie planował udostępniania Gemmy i AI Studio na przykład pracownikom Kongresu, takie sytuacje nadal mogą się zdarzyć.
Pokazuje również, że w miarę ciągłego ulepszania modeli, w dalszym ciągu generują one niedokładne i potencjalnie szkodliwe informacje. Firmy muszą stale rozważać korzyści wynikające ze stosowania modeli takich jak Gemma z ich potencjalnymi niedokładnościami.
Ciągłość projektu
Kolejnym problemem jest kontrola, jaką firmy zajmujące się sztuczną inteligencją mają nad swoimi modelami. Powiedzenie „w Internecie nie masz nic” pozostaje prawdziwe. Jeśli nie posiadasz fizycznej lub lokalnej kopii oprogramowania, łatwo stracić do niego dostęp, jeśli firma będąca jego właścicielem zdecyduje się je odebrać. Google nie wyjaśnił VentureBeat, czy obecne projekty w AI Studio obsługiwane przez Gemmę zostały odłożone na półkę.
Podobnie, OpenAI użytkownicy byli rozczarowani, gdy firma ogłosiła, że tak się stanie usuń popularne starsze modele na ChatGPT. Nawet po tym, jak wycofał swoje zeznania i przywrócenie GPT-4o Wracając do ChatGPT, dyrektor generalny OpenAI Sam Altman w dalszym ciągu zadaje pytania dotyczące przechowywania i wsparcia modeli.
Firmy zajmujące się sztuczną inteligencją mogą i powinny usuwać swoje modele, jeśli dają one szkodliwe rezultaty. Modele sztucznej inteligencji, niezależnie od tego, jak bardzo są dojrzałe, wciąż są w toku i stale ewoluują i udoskonalają. Jednak ze względu na charakter eksperymentalny modele te mogą z łatwością stać się narzędziami, które firmy technologiczne i prawodawcy mogą wykorzystać jako dźwignię. Deweloperzy korporacyjni muszą upewnić się, że ich praca będzie możliwa do zapisania, zanim modele zostaną usunięte z platformy.



