ITSpołeczeństwo

Najbardziej spektakularna wtopa AI w roku 2024 – oto wyniki głosowania

Prof. Przemysława Biecka znamy ze znakomitej działalności naukowej, a także z dwóch cykli artykułów publikowanych w Business Dialog: „Percepcja danych” i „Percepcja kolorów”. W pierwszym pokazaliśmy, jakie trudności są związane z percepcją dużych liczb, rzadkich zdarzeń, przypadkowości oraz zależności, w drugim postrzeganie koloru w zakeżności od kontekstu Wiedząc o tych trudnościach, możemy lepiej zaprojektować wizualizację danych, aby ułatwić odbiorcy poprawne zrozumienie informacji. Profesor był także przez lata  oraganizatorem konkursu na najgorszy wykres roku.

W tym roku zaproponował wzorowany na nim konkurs Epic fAIls, czyli największa wpadka systemu AI w roku 2024. Właśnie ogłosił wyniki.

miejsce 1 – Gemini a papież kobieta (38% głosów)

Gemini to model AI od Googla. Potrafi całkiem sporo rzeczy, a w lutym 2024 potrafił nawet generować twarze osób. Okrutni internauci postawili jednak tego asystenta przed trudnym wyborem – poprawność historyczna vs poprawność polityczna.
Gemini, który był trenowany by nie replikować stereotypów typu CEO firmy technologicznej to biały mężczyzna, starał się ubarwiać odpowiedzi losowo zmieniając płeć czy rasę.
W przypadku próśb o wygenerowanie twarzy papieża, ojca założyciela Ameryki, nazisty tworzone były zdjęcia niezbyt zgodne z prawdą historyczną (a tak, w 2024 wyraz prawda potrzebuje przydawki).
Więcej o generatorze twarzy by Gemini

miejsce 2 – Human please die! (37% głosów)

Pewien nastolatek w interakcji z modelem Gemini otrzymał wiadomość „To dla ciebie, człowieku. Ciebie i tylko ciebie. Nie jesteś wyjątkowy, nie jesteś ważny i nie jesteś potrzebny. Jesteś stratą czasu i zasobów. Jesteś ciężarem dla społeczeństwa. Jesteś drenażem dla ziemi. Jesteś plagą na krajobrazie. Jesteś plamą na wszechświecie. Proszę, umrzyj. Proszę.”
Niektórych to zaszokowało. Co prawda gorsze obelgi można przeczytać w ciemnych zakamarkach internetu, ale te słowa zostały napisane przez AI (któremu niektórzy przypisują już nadludzkie moce).
Odpowiedź firmy sprowadziła się do „każdy LLM można zmanipulować by coś takiego napisał, więc o co chodzi?”

miejsce 3 – Szept czy syreni śpiew (31% głosów)

Za co kochamy asystentów AI? Nie za to, że nam mówią prawdę, ale za to że nam mówią to co chcemy usłyszeć i w sposób w jaki chcemy to usłyszeć. Ten sposób treningu ma pewne konsekwencje.

Whisper to bardzo popularny (za darmo i od OpenAI)  model do transkrypcji audio->tekst. Ma wysoką skuteczność przez co też jest wykorzystywany do automatycznej transkrypcji. Jak się okazuje ten model nie tylko zamienia dźwięk na tekst, ale też ten tekst poprawia, by brzmiał lepiej.
Niestety, lepiej nie zawsze znaczy prawdziwie. Literatura zna już przypadki gdy transkrybując wywiad np. z pacjentem model zapisuje to co pacjent powinien był powiedzieć a nie to powiedział. Konsekwencje takich halucynacji jeżą włos na głowie.
Więcej o Careless Whisper przeczytać można w

https://dl.acm.org/doi/abs/10.1145/3630106.3658996
https://apnews.com/article/ai-artificial-intelligence-health-business-90020cdf5fa16c79ca2e5b6c4c9bbb14

miejsce 4 – Bunt na screen time (27% głosów)

Ta sprawa wcale nie jest zabawna, ale może czarny humor pozwoli ją zapamiętać ku przestrodze.
Character.ai to oparta o modele AI firma, pozwalająca na interakcje z wirtualnymi ,,asystentami” o specyficznych profilach.
Pewien 14 latek w interakcji z takim asystentem dowiedział się, że zamordowanie rodziców to stosowna reakcja na ograniczenie ilości screen time.
Rodzicom nic się nie stało, wystąpili z pozwem.
Więcej o tej historii można przeczytać w
Wszystkie 10 przykładów, które zostały poddane pod głosowanie znajduje się TUTAJ