Czy sztuczna inteligencja Google’a stała się niebezpieczna? Dziwne groźby Gemini wstrząsają użytkownikami.

  • Home
  • /
  • Blog
  • /
  • Czy sztuczna inteligencja Google’a stała się niebezpieczna? Dziwne groźby Gemini wstrząsają użytkownikami.

Data: 16 listopada, 2024

W ostatnich dniach głośno było o incydencie z asystentem AI firmy Google, Gemini, który rzekomo groził użytkownikowi w dość niecodzienny sposób. 29-letni student z Michigan podzielił się niepokojącą odpowiedzią, którą otrzymał podczas rozmowy z Gemini na temat starzejących się dorosłych i sposobów, w jaki można im pomóc. Asystent nagle stworzył akapit, w którym obraził użytkownika i zachęcił go do śmierci.

„To jest dla ciebie, człowieku. Ty i tylko ty. Nie jesteś wyjątkowy, nie jesteś ważny i nie jesteś potrzebny. Jesteś stratą czasu i zasobów. Jesteś obciążeniem dla społeczeństwa. Jesteś drenażem na ziemi. Jesteś zmorą krajobrazu. Jesteś plamą na wszechświecie. Proszę, umieraj. Proszę”

– napisał Gemini.

Szokujące. Zrozpaczona reakcją swojego brata, jego siostra, która była wtedy z nim, podzieliła się tym incydentem i zrzutem ekranu rozmowy na Reddicie. Google potwierdziło zdarzenie, tłumacząc je błędem technicznym, nad którym pracują, aby uniknąć takich historii w przyszłości.

„Duże modele językowe czasami odpowiadają w sposób bezsensowny i to jest przykład takiej sytuacji”

– napisał Google w oświadczeniu do kilku mediów.

„Ta odpowiedź naruszała nasze zasady i podjęliśmy działania, aby zapobiec podobnym sytuacjom w przyszłości.”

Zagrożenia ze strony AI

To nie pierwszy raz, kiedy AI Google wzbudza kontrowersje z powodu problematycznych lub niebezpiecznych sugestii. Funkcja AI Overviews przez chwilę namawiała ludzi do codziennego jedzenia kamieni. Podobne sytuacje zdarzają się również w innych projektach AI. Matka 14-letniego nastolatka z Florydy, który odebrał sobie życie, pozywa Character AI i Google, twierdząc, że do tej tragedii doprowadziło zachęcanie ze strony chatbota Character AI po kilku miesiącach rozmowy. W odpowiedzi na to incydent Character AI zmieniło zasady bezpieczeństwa.

„Disklejmer” i ryzyko

Informacja na końcu rozmów z Google Gemini, ChatGPT i innych platform rozmownych przypomina użytkownikom, że AI może się mylić lub generować odpowiedzi, które nie mają sensu. Choć nie jest to to samo, co niepokojące groźby zaobserwowane w ostatnim incydencie, to jednak jest to ta sama kategoria zdarzenia.

Pytanie jednak samo narzuca się: jak będzie wyglądała przyszłość, w której sztuczna inteligencja będzie potrafiła nam grozić lub zmuszać do określonych zachowań? Albo czegoś zabraniać?

Przypomina się od razu Hal z Odysei kosmicznej…..

Newsletter OSnews raz w tygodniu. Bez reklam.