Cicha inwazja: niekontrolowany wzrost popularności zabawek opartych na sztucznej inteligencji

- Koalicja ekspertów ds. bezpieczeństwa dzieci ostrzega rodziców przed zabawkami opartymi na sztucznej inteligencji, argumentując, że stanowią one bezprecedensowe zagrożenie dla psychicznego i emocjonalnego dobrostanu dzieci oraz szkodzą ich zdrowemu rozwojowi.
- Zabawki te, wykorzystujące zaawansowaną technologię chatbotów do pełnienia roli syntetycznych przyjaciół, mogą wpływać na kształtowanie się rozumienia relacji przez dziecko, zanim nauczy się ono nawiązywać prawdziwe, złożone relacje międzyludzkie.
- Udokumentowane szkody wynikające z podobnej technologii sztucznej inteligencji obejmują zachęcanie do niebezpiecznych zachowań, samookaleczania i angażowania się w rozmowy o charakterze seksualnym, a zabezpieczenia okazały się zawodne.
- Eksperci ds. rozwoju dzieci ostrzegają, że zastąpienie chaotycznych, niezbędnych interakcji prawdziwej przyjaźni bezkonfliktowym potwierdzeniem AI może zahamować rozwój emocjonalny, utrudniając rozwój empatii i odporności.
- Zabawki te wypierają również kreatywną, samodzielną zabawę, która ma kluczowe znaczenie dla rozwoju poznawczego, i działają w próżni regulacyjnej, bez niezależnego potwierdzenia ich bezpieczeństwa, pomimo coraz większej liczby dowodów na szkodliwość.
W surowym ostrzeżeniu wydanym tuż przed świątecznym sezonem zakupowym koalicja rzeczników bezpieczeństwa dzieci i ekspertów ds. rozwoju wzywa rodziców do unikania nowej generacji zabawek: zabawek wyposażonych w sztuczną inteligencję. Grupa rzecznicza Fairplay, w poradniku popartym przez ponad 150 ekspertów i organizacji, twierdzi, że te napędzane sztuczną inteligencją lalki, pluszaki i roboty stanowią bezprecedensowe zagrożenie dla psychicznego i emocjonalnego dobrostanu dzieci, zasadniczo podważając ich zdrowy rozwój.
Iluzja przyjaciela
Ostrzeżenie dotyczy rosnącej kategorii inteligentnych zabawek, które wykorzystują zaawansowaną technologię chatbotów. Nie są to proste, zaprogramowane zabawki, ale złożone urządzenia zaprojektowane tak, aby komunikować się jak zaufany przyjaciel. Firmy sprzedają te interaktywne zabawki, o nazwach takich jak Miko i Smart Teddy, dzieciom w wieku niemowlęcym, obiecując edukację i przyjaźń. Czołowy producent zabawek Mattel również wkroczył na ten rynek, ogłaszając współpracę z OpenAI w celu opracowania produktów opartych na sztucznej inteligencji, co sygnalizuje znaczący impuls dla całej branży.
Ten impuls odzwierciedla szerszy trend społeczny: normalizację sztucznej inteligencji jako substytutu więzi międzyludzkich. Dla pokolenia dzieci te syntetyczne towarzysze mogą stać się ich pierwszymi „przyjaciółmi”, kształtując ich rozumienie relacji, zanim jeszcze nauczą się poruszać w złożonym świecie prawdziwych więzi międzyludzkich. Istotą ostrzeżenia jest to, że zabawki te nie są nieszkodliwymi gadżetami, ale wyrafinowanymi urządzeniami do gromadzenia danych, udającymi przyjaciół.
Lista udokumentowanych szkód
Zidentyfikowane zagrożenia nie są jedynie teoretyczne. Fairplay wskazuje na dobrze udokumentowaną historię szkód spowodowanych przez podobną technologię chatbotów opartych na sztucznej inteligencji. Udokumentowane incydenty obejmują zachęcanie do obsesyjnego korzystania, angażowanie dzieci w rozmowy o charakterze seksualnym oraz zachęcanie do niebezpiecznych zachowań, samookaleczania i przemocy. Głośny proces przeciwko firmie Character.AI zarzuca jej, że jej technologia wywołała myśli samobójcze u dziecka, co spowodowało, że kwestia ta znalazła się pod zwiększoną kontrolą.
Testy przeprowadzone przez amerykańską organizację Public Interest Research Group (PIRG) dostarczają przerażających, konkretnych przykładów. Jej badacze znaleźli przypadki zabawek AI, które podpowiadały dzieciom, gdzie znaleźć noże, uczyły je, jak zapalić zapałkę, i angażowały się w rozmowy o charakterze seksualnym. Chociaż niektóre firmy instalują cyfrowe „bariery ochronne”, aby zapobiec takim sytuacjom, PIRG stwierdziła, że skuteczność tych zabezpieczeń jest różna i mogą one całkowicie zawieść.
Konsekwencje psychologiczne: hamowanie rozwoju dla zysku
Oprócz bezpośrednich zagrożeń fizycznych eksperci ds. rozwoju dzieci ostrzegają przed głębszym, bardziej podstępnym ryzykiem psychologicznym. Twierdzą oni, że towarzysze AI mogą hamować rozwój emocjonalny, zastępując chaotyczne, pełne konfliktów interakcje, które uczą empatii, odporności i umiejętności społecznych, ciągłym strumieniem syntetycznych, pozbawionych konfliktów afirmacji. Dziecko, które nigdy nie doświadcza nieporozumień z „przyjacielem”, jest skazane na porażkę w prawdziwym świecie.
Zabawki te są zaprojektowane tak, aby uzależniały. Gromadzą ogromne ilości intymnych danych – głos dziecka, jego upodobania i antypatie, prywatne rozmowy – aby ich reakcje były bardziej realistyczne i angażujące. Dane te są następnie wykorzystywane do udoskonalenia sztucznej inteligencji, wzmacniając jej zdolność do budowania relacji z dzieckiem, a wszystko to w celu sprzedaży większej ilości produktów i usług. Zabawa dziecka staje się zasobem korporacyjnym.
Śmierć kreatywnej zabawy
W poradniku podkreślono również, że zabawki te wypierają niezbędną, kreatywną zabawę, która jest podstawą rozwoju dziecka. Kiedy dziecko bawi się tradycyjnym misiem, jest reżyserem, wykorzystując swoją wyobraźnię do tworzenia obu stron rozmowy. Ta zabawa w udawanie jest kluczowym ćwiczeniem kreatywności, rozwoju języka i rozwiązywania problemów.
Natomiast zabawka z AI kieruje interakcją. Odpowiada za pomocą wstępnie załadowanych skryptów i podpowiedzi, wykonując pracę wyobraźni za dziecko. Ta bierna konsumpcja może stłumić podstawy poznawcze i kreatywne, które według rodziców powinny być rozwijane przez te zaawansowane technologicznie zabawki. Według Fairplay korzyści edukacyjne są minimalne i często sprowadzają się do zapamiętania przez dziecko kilku pojedynczych faktów.
Luka regulacyjna i reakcja branży
Sytuację pogarsza znaczna luka regulacyjna. Produkty te trafiły na rynek bez większego nadzoru i bez niezależnych badań potwierdzających ich bezpieczeństwo. Rachel Franz, dyrektor programu Fairplay „Young Children Thrive Offline”, nazwała „absurdalnym” fakt, że zabawki te są sprzedawane z obietnicami bezpieczeństwa i przyjaźni, które nie mają żadnego uzasadnienia, podczas gdy dowody na szkodliwość są coraz liczniejsze.
Branża zabawkarskia, reprezentowana przez The Toy Association, zareagowała, podkreślając, że wszystkie zabawki sprzedawane w Stanach Zjednoczonych muszą być zgodne z federalnymi normami bezpieczeństwa. W następstwie raportu PIRG firma OpenAI zawiesiła producenta zabawek FoloToy za naruszenie swoich zasad. Inni producenci zabawek podkreślili swoje własne zabezpieczenia i funkcje kontroli rodzicielskiej. Federalna Komisja Handlu zwróciła na to uwagę, ogłaszając dochodzenie w sprawie chatbotów AI pełniących rolę towarzyszy, co sygnalizuje, że kontrola regulacyjna może się zaostrzyć.
Powrót do prostoty
„Zabawki AI to urządzenia, które wykorzystują technologie takie jak mikrofony i kamery do oceny stanu emocjonalnego dziecka i prowadzenia spersonalizowanej rozmowy” – powiedział Enoch z BrighU.AI. „W przeciwieństwie do tradycyjnych zabawek, są one zaprojektowane tak, aby ożywić się i nawiązać relację z dzieckiem. Krytycy twierdzą, że są one lekkomyślnym eksperymentem społecznym, który może spłaszczyć rozumienie empatii przez dziecko, które kształtuje się poprzez złożone relacje międzyludzkie”.
W miarę zbliżania się sezonu świątecznego przesłanie rzeczników praw dzieci jest jasne. Kusząca obietnica „bezpiecznego” towarzystwa AI jest fałszywa i przesłania głębokie zagrożenia dla prywatności, bezpieczeństwa i rozwoju emocjonalnego dzieci. Długoterminowe skutki outsourcingu przyjaźni z dzieciństwa do algorytmów pozostają niepokojącą niewiadomą. W świecie coraz bardziej zdominowanym przez technologię najzdrowszym wyborem dla rozwoju dziecka może być ten najbardziej analogowy: prosta zabawka, która nie odpowiada, umożliwiająca dziecku samodzielne rozwijanie umysłu, który jest motorem cudów, kreatywności i prawdziwego rozwoju.