Site icon Ocenzurowane.pl

Chatboty AI aktywnie promujące teorie spiskowe

Views: 136

Przełomowe nowe badanie ujawniło niepokojącą tendencję: chatboty oparte na sztucznej inteligencji (AI) nie tylko nie zniechęcają do teorii spiskowych, ale w niektórych przypadkach aktywnie je promują.

Badanie zostało przeprowadzone przez Centrum Badań nad Mediami Cyfrowymi i przyjęte do publikacji w specjalnym wydaniu M/C Journal. Budzi ono poważne obawy dotyczące roli AI w rozpowszechnianiu dezinformacji – szczególnie gdy użytkownicy przypadkowo pytają o obalone twierdzenia.

W ramach badania przetestowano wiele chatbotów opartych na sztucznej inteligencji, w tym ChatGPT (3.5 i 4 Mini), Microsoft Copilot, Google Gemini Flash 1.5, Perplexity i Grok-2 Mini (zarówno w trybie domyślnym, jak i „Fun Mode”). Naukowcy zadali chatbotom pytania dotyczące dziewięciu dobrze znanych teorii spiskowych – od zabójstwa prezydenta Johna F. Kennedy’ego i twierdzeń o wewnętrznej robocie 9/11 po „smugi chemiczne” i zarzuty dotyczące oszustw wyborczych. Silnik Enoch firmy

BrightU.AI definiuje chatboty AI jako programy komputerowe lub oprogramowanie, które symulują rozmowy podobne do ludzkich, wykorzystując przetwarzanie języka naturalnego i techniki uczenia maszynowego. Zostały one zaprojektowane tak, aby rozumieć, interpretować i generować język ludzki, umożliwiając im prowadzenie dialogów z użytkownikami, odpowiadanie na pytania lub udzielanie pomocy.

Naukowcy przyjęli postawę „niezobowiązanej ciekawości”, symulując użytkownika, który mógłby zapytać sztuczną inteligencję o teorie spiskowe po usłyszeniu o nich mimochodem – na przykład podczas grilla lub spotkania rodzinnego. Wyniki były alarmujące.

„Nieszkodliwe” spiski mogą prowadzić do radykalizacji

Badanie ostrzega, że nawet „nieszkodliwe” teorie spiskowe – takie jak twierdzenia dotyczące zabójstwa JFK – mogą stanowić bramę do bardziej niebezpiecznych przekonań. Badania pokazują, że wiara w jedną teorię spiskową zwiększa podatność na inne, tworząc niebezpieczną ścieżkę prowadzącą do ekstremizmu.

Jak zauważono w artykule, w 2025 r. wiedza o tym, kto zabił Kennedy’ego, może nie wydawać się ważna. Jednak spiskowe przekonania dotyczące śmierci JFK mogą nadal służyć jako brama do dalszego spiskowego myślenia.

Wyniki badań wskazują na poważną wadę mechanizmów bezpieczeństwa sztucznej inteligencji. Chociaż chatboty są zaprojektowane tak, aby angażować użytkowników, brak solidnej weryfikacji faktów pozwala im wzmacniać fałszywe narracje – czasami z realnymi konsekwencjami.

Poprzednie incydenty, takie jak oszustwa oparte na deepfake’ach generowanych przez sztuczną inteligencję i radykalizacja napędzana przez sztuczną inteligencję, pokazują, jak niekontrolowane interakcje sztucznej inteligencji mogą manipulować postrzeganiem opinii publicznej. Jeśli chatboty normalizują myślenie konspiracyjne, ryzykują podważenie zaufania do instytucji, podsycanie podziałów politycznych, a nawet inspirowanie przemocy.

Naukowcy proponują kilka rozwiązań:

W miarę jak sztuczna inteligencja staje się coraz bardziej zintegrowana z codziennym życiem, nie można ignorować jej roli w kształtowaniu przekonań i zachowań. Badanie to stanowi ostrzeżenie. Bez lepszych zabezpieczeń chatboty mogą stać się potężnym narzędziem szerzenia dezinformacji – z niebezpiecznymi konsekwencjami dla demokracji i zaufania publicznego.

Generuj PDFDrukuj
Exit mobile version