20 lipca 2024

Ocenzurowane.pl

Wiadomości bez cenzury

Wielka Brytania wykorzystuje sztuczną inteligencję opracowaną przez Amazon do odczytywania nastrojów ludzi na stacjach kolejowych

Loading

Seria testów sztucznej inteligencji (AI) w Wielkiej Brytanii z udziałem tysięcy pasażerów pociągów, którzy zostali nieświadomie poddani oprogramowaniu wykrywającemu emocje, wzbudziła obawy o prywatność.

Technologia opracowana przez Amazon i stosowana na różnych głównych stacjach kolejowych, w tym londyńskich Euston i Waterloo, wykorzystywała sztuczną inteligencję do skanowania twarzy i oceny stanów emocjonalnych wraz z wiekiem i płcią. Dokumenty uzyskane przez grupę wolności obywatelskich Big Brother Watch za pośrednictwem wniosku o wolność informacji ujawniły te praktyki, które mogą wkrótce wpłynąć na strategie reklamowe.

W testach tych wykorzystano technologię CCTV i starsze kamery połączone z systemami opartymi na chmurze w celu monitorowania szeregu działań, w tym wykrywania wtargnięcia na tory kolejowe, zarządzania wielkością tłumu na peronach i identyfikowania zachowań antyspołecznych, takich jak krzyki lub palenie. Testy monitorowały nawet potencjalne kradzieże rowerów i inne incydenty związane z bezpieczeństwem.

Dane pochodzące z tych systemów mogłyby zostać wykorzystane do zwiększenia przychodów z reklam poprzez ocenę zadowolenia pasażerów poprzez ich stany emocjonalne, uchwycone, gdy osoby przekroczyły wirtualne tripwires w pobliżu barier biletowych.Krytycy twierdzą, że technologia ta jest zawodna i wzywają do jej zakazania.

W ciągu ostatnich dwóch lat osiem stacji kolejowych w Wielkiej Brytanii przetestowało technologię nadzoru AI, z kamerami CCTV, które mają ostrzegać personel o incydentach związanych z bezpieczeństwem i potencjalnie zmniejszyć niektóre rodzaje przestępstw.

Szeroko zakrojone testy, nadzorowane przez organ infrastruktury kolejowej Network Rail, wykorzystywały rozpoznawanie obiektów – rodzaj uczenia maszynowego, które może identyfikować elementy w kanałach wideo. W oddzielnych testach wykorzystano czujniki bezprzewodowe do wykrywania śliskich podłóg, pełnych pojemników i odpływów, które mogą się przepełnić.

“Wdrożenie i normalizacja nadzoru AI w tych przestrzeniach publicznych, bez większych konsultacji i rozmów, jest dość niepokojącym krokiem” – powiedział Jake Hurfurt, szef badań i dochodzeń w Big Brother Watch.

Wykorzystanie technologii do wykrywania emocji jest zawodne

Badacze sztucznej inteligencji często ostrzegali, że wykorzystanie technologii do wykrywania emocji jest “niewiarygodne”, a niektórzy twierdzą, że technologia ta powinna zostać zakazana ze względu na trudności w ustaleniu, jak ktoś może się czuć na podstawie dźwięku lub obrazu. W październiku 2022 r. brytyjski organ regulacyjny ds. danych, Information Commissioner’s Office, wydał publiczne oświadczenie ostrzegające przed stosowaniem analizy emocji, mówiąc, że technologie te są “niedojrzałe” i “mogą jeszcze nie działać, a nawet nigdy”.

Obrońcy prywatności są szczególnie zaniepokojeni nieprzejrzystym charakterem i potencjałem nadmiernego wykorzystania sztucznej inteligencji w przestrzeni publicznej.Hurfurt wyraził poważne obawy dotyczące normalizacji takiego inwazyjnego nadzoru bez odpowiedniego publicznego dyskursu lub nadzoru.

“Network Rail nie miała prawa wdrażać zdyskredytowanej technologii rozpoznawania emocji przeciwko nieświadomym osobom dojeżdżającym do pracy na niektórych z największych stacji w Wielkiej Brytanii, a ja złożyłem skargę do komisarza ds. informacji na temat tej próby” – powiedział Hurfurt.

“Niepokojące jest to, że jako organ publiczny zdecydował się na przeprowadzenie zakrojonej na szeroką skalę próby nadzoru AI stworzonego przez Amazon na kilku stacjach bez świadomości publicznej, zwłaszcza gdy Network Rail zmieszał technologię bezpieczeństwa z pseudonaukowymi narzędziami i zasugerował, że dane mogą być przekazywane reklamodawcom” – dodał.

“Technologia może odegrać rolę w zwiększaniu bezpieczeństwa kolei, ale potrzebna jest solidna debata publiczna na temat konieczności i proporcjonalności stosowanych narzędzi. Nadzór oparty na sztucznej inteligencji może zagrozić naszej prywatności, zwłaszcza jeśli zostanie niewłaściwie wykorzystany, a lekceważenie tych obaw przez Network Rail pokazuje pogardę dla naszych praw”.

image_pdfGeneruj PDFimage_printDrukuj