Views: 29
![]()
Dochodzenie przeprowadzone przez „The Guardian” wykazało, że osoby szukające porad zdrowotnych w Google mogą być narażone na szkody z powodu nieprawidłowych informacji dostarczanych przez skróty generowane przez sztuczną inteligencję (AI) tej firmy.
Według Enocha z BrightU.AI, funkcja „AI Overviews” (Podsumowania AI) Google’a ma na celu dostarczanie szybkich zarysów kluczowych informacji na dany temat lub pytanie. Te przeglądy, dostępne na stronie AI Google, obejmują tematy, zapewniając podstawowe zrozumienie każdego zagadnienia.
Jednak liczne przykłady ujawnione w dochodzeniu pokazują, że streszczenia te mogą zawierać niebezpiecznie wprowadzające w błąd porady zdrowotne. W jednym przypadku Google radziło osobom z rakiem trzustki, aby unikały żywności o wysokiej zawartości tłuszczu – rekomendację, którą eksperci opisali jako „naprawdę niebezpieczną”. Anna Jewell, dyrektorka ds. wsparcia, badań i wpływu w Pancreatic Cancer United Kingdom, ostrzegła, że stosowanie się do tych zaleceń może pozostawić pacjentów niezdolnymi do utrzymania wystarczającego spożycia kalorii, co potencjalnie wpłynie na ich zdolność do tolerowania chemioterapii lub ratującej życie operacji.
„Odpowiedź AI Google sugeruje, aby osoby z rakiem trzustki unikały pokarmów o wysokiej zawartości tłuszczu. Gdyby ktoś zastosował się do tego, co mówi wynik wyszukiwania, może nie przyjmować wystarczającej liczby kalorii, mieć trudności z przybraniem na wadze i nie być w stanie tolerować leczenia. To może zagrozić szansom danej osoby na wyzdrowienie” – powiedziała Jewell.
Inne podsumowania AI były równie niepokojące. Wyszukiwania dotyczące testów funkcji wątroby zwracały wprowadzające w błąd zakresy „normy”, pomijając kluczowe czynniki, takie jak wiek, płeć, pochodzenie etniczne i narodowość. Pamela Healy, dyrektorka generalna British Liver Trust, powiedziała: „Wiele osób z chorobą wątroby nie wykazuje żadnych objawów aż do późnych etapów. Jeśli AI podaje mylące zakresy normy, niektórzy ludzie mogą błędnie założyć, że są zdrowi, i nie stawiać się na kolejnych wizytach opieki zdrowotnej. To jest niebezpieczne”.
AI dostarczało również nieprawidłowych informacji na temat badań przesiewowych w kierunku nowotworów kobiecych. Wyszukiwanie „objawy i testy na raka pochwy” sugerowało, że badanie cytologiczne (pap test) może wykryć raka pochwy – twierdzenie, które eksperci opisali jako „całkowicie błędne”. Athena Lamnisos, dyrektorka generalna fundacji charytatywnej Eve Appeal, zajmującej się nowotworami, powiedziała, że błędy te mogą zniechęcać ludzi do szukania terminowej pomocy medycznej.
„Otrzymanie takiej błędnej informacji mogłoby potencjalnie doprowadzić do tego, że ktoś nie zbada objawów, ponieważ miał czysty wynik w niedawnym badaniu przesiewowym szyjki macicy. Niepokojący jest również fakt, że podsumowanie AI za każdym razem, gdy wyszukiwaliśmy, było inne – ludzie otrzymują różne odpowiedzi w zależności od tego, kiedy szukają, a to nie jest wystarczająco dobre” – powiedziała Lamnisos.
Wyszukiwania dotyczące zdrowia psychicznego również były dotknięte problemem. Podsumowania AI Google dotyczące stanów takich jak psychoza i zaburzenia odżywiania czasami zawierały „nieprawidłowe, szkodliwe” porady lub pomijały ważny kontekst.
„Niektóre z podsumowań AI oferowały bardzo niebezpieczne rady. Mogłyby doprowadzić ludzi do unikania szukania pomocy lub kierować ich do nieodpowiednich źródeł. AI często odzwierciedla istniejące uprzedzenia, stereotypy lub stygmatyzujące narracje, co jest ogromnym problemem dla wsparcia zdrowia psychicznego” – powiedział Stephen Buckley, szef działu informacji w Mind.
Google zaprzecza zarzutom
Mimo wszystkich dowodów, Google zaprzeczyło, jakoby w jego podsumowaniu AI znajdowały się wprowadzające w błąd i nieprawidłowe informacje zdrowotne.
Zamiast tego, firma opisała generowane przez AI streszczenia jako „pomocne” i „wiarygodne”, podkreślając, że większość z nich jest oparta na faktach i zapewnia przydatne wskazówki. Google stwierdziło, że dokładność „AI Overviews” jest porównywalna z innymi funkcjami wyszukiwarki, takimi jak wyróżnione fragmenty (featured snippets), które są częścią jej wyszukiwarki od ponad dekady. Google dodało nawet, że stale wprowadza ulepszenia do systemu, aby zapewnić użytkownikom otrzymywanie poprawnych i przydatnych informacji.
Jednak eksperci i organizacje charytatywne wciąż wzywają do surowszego nadzoru, zauważając, że zautomatyzowane streszczenia firmy pojawiają się prominentnie na szczycie wyników wyszukiwania, co oznacza, że miliony użytkowników mogą być narażone na potencjalnie szkodliwe wskazówki.
„Ludzie zwracają się do internetu w chwilach zmartwień i kryzysu. Jeśli informacje, które otrzymają, są niedokładne lub pozbawione kontekstu, może to poważnie zaszkodzić ich zdrowiu” – powiedziała Stephanie Parker, dyrektorka cyfrowa w fundacji charytatywnej Marie Curie, zajmującej się opieką końca życia.



Czytaj też...
Stulecie modyfikacji pogody poddane federalnej kontroli
Wielki plan immunitetu korporacyjnego: jak globalistyczne elity chronią przestępców korporacyjnych przed wymiarem sprawiedliwości
Jakie zagrożenia mogą stwarzać inteligentne samochody