Stulecie modyfikacji pogody poddane federalnej kontroli

Od ponad wieku ambicja kontrolowania pogody przeniosła się z dziedziny folkloru do udokumentowanych programów rządowych i przedsięwzięć komercyjnych. Obecnie ta w dużej mierze niekontrolowana historia skłania do przeprowadzenia nowej federalnej oceny. W następstwie poważnych katastrof pogodowych i coraz częstszych działań legislacyjnych na szczeblu stanowym urzędnicy ponownie analizują, czy minimalny nadzór kraju nad modyfikacją pogody i klimatu jest wystarczający w erze zaawansowanej geoinżynierii.

Od wywoływaczy deszczu do łowców huraganów

Amerykańskie dążenie do kontroli pogody ma głębokie korzenie. W 1916 r. San Diego zatrudniło wywoływacza deszczu Charlesa Hatfielda, aby przełamał suszę; jego metody spowodowały tygodnie ulewnych deszczy, katastrofalne powodzie i najtragiczniejszą klęskę żywiołową w historii miasta. Zaangażowanie władz federalnych nasiliło się po II wojnie światowej. W 1947 r. wojsko i General Electric uruchomiły projekt Cirrus, pierwszą próbę modyfikacji huraganu za pomocą suchego lodu. Było to początkiem dziesięcioleci eksperymentów, w tym publicznego projektu Stormfury i tajnej operacji Popeye podczas wojny w Wietnamie, w ramach której wykorzystywano zasiewanie chmur w celu przedłużenia pory deszczowej i zakłócenia linii zaopatrzeniowych wroga. Prezydenci John F. Kennedy i Lyndon B. Johnson publicznie rozważali ostateczny cel kontroli pogody, a Johnson w 1962 r. zauważył, że „ten, kto kontroluje pogodę, będzie kontrolował świat”.

Współczesne działania i luka prawna

Obecnie działania związane z zasiewaniem chmur są prowadzone w co najmniej dziewięciu stanach, głównie na zachodzie kraju, w celu zwiększenia opadów. Narodowa Agencja Oceaniczna i Atmosferyczna wymienia wiele innych technik, od tłumienia gradu po rozpraszanie mgły. Bardziej kontrowersyjne są kontynuowane badania nad zarządzaniem promieniowaniem słonecznym na dużą skalę, takie jak wtryskiwanie aerozoli do stratosfery, mające na celu ochłodzenie planety poprzez odbijanie promieni słonecznych. Pomimo tych działań nadzór jest niewielki. Główna ustawa federalna, uchwalona w 1972 r., opiera się na systemie honorowym samodzielnego zgłaszania bez weryfikacji i egzekwowania. W 35 stanach nie są wymagane żadne zezwolenia na modyfikowanie pogody.

Punkt zapalny w Teksasie

Po niszczycielskich powodziach w środkowym Teksasie w lipcu 2025 r. nasiliła się kontrola publiczna i polityczna. Po długotrwałej suszy w niektórych częściach regionu w krótkim czasie spadło około 13 cali deszczu, powodując śmiertelne gwałtowne powodzie. Kilka dni wcześniej, około 130 mil dalej, prywatna firma Rainmaker Technology przeprowadziła operację zasiewania chmur. Chociaż badacz geoinżynierii Dane Wigington sugerował istnienie związku między tymi wydarzeniami, dyrektor generalny firmy, Augustus Doricko, stanowczo zaprzeczył, twierdząc, że skala zasiewania jest „minimalna” w porównaniu z dużym systemem burzowym. Wydarzenie to jednak uwydatniło obawy opinii publicznej i brak przejrzystego monitoringu.

Reakcja legislacyjna

Niejasność dotycząca skuteczności i wpływu tych programów na środowisko spowodowała podjęcie działań legislacyjnych. Powołując się na obawy dotyczące nieznanych konsekwencji dla rolnictwa, zdrowia ludzkiego i ekosystemów, co najmniej 13 stanów wprowadziło projekty ustaw ograniczających modyfikację atmosfery. Tennessee, Montana i Floryda wprowadziły zakazy. W Kongresie przedstawicielka Marjorie Taylor Greene (R-Ga.) przedstawiła projekt ustawy dotyczącej ogólnokrajowego zakazu, przedstawiając tę kwestię jako sprawę ostrożności ekologicznej i suwerenności. Meteorolodzy zeznający podczas związanych z tym przesłuchań przyznali, że istnieją znaczne niepewności, a niektórzy opowiadali się za aktualizacją przepisów federalnych w celu zapewnienia jednolitości na szczeblu krajowym i ukierunkowania międzynarodowych dyskusji na temat geoinżynierii.

Niepewna prognoza

Obecny przegląd federalny, odnotowany w niedawnym raporcie, koncentruje się na tym, czy Kongres musi podjąć działania, czy też uprawnienia regulacyjne powinny zostać przekazane innej agencji. Debata przeciwstawia potencjalne korzyści wynikające z łagodzenia skutków suszy i interwencji klimatycznej głębokim pytaniom dotyczącym niezamierzonych konsekwencji, etycznego zarządzania i tego, kto kontroluje termostat planety. Wraz z postępem technologicznym naród zmaga się z dziedzictwem eksperymentów przeprowadzanych pod gołym niebem, ale często w cieniu regulacji, decydując, kto powinien kontrolować próby kontrolowania pogody.




Wielki plan immunitetu korporacyjnego: jak globalistyczne elity chronią przestępców korporacyjnych przed wymiarem sprawiedliwości

Wprowadzenie: Kryzys bezkarności korporacji

Cicha epidemia bezprawia ogarnia amerykańskie korporacje i zglobalizowaną gospodarkę, umożliwiona przez system ochrony prowadzony przez elity polityczne i finansowe. Podczas gdy zwykli obywatele są poddawani coraz większej kontroli i działaniom rządowych agencji, najpotężniejsze korporacje świata działają niemal całkowicie bezkarnie, zatruwając społeczeństwa, korumpując rządy i niszcząc zaufanie publiczne. Nie jest to przypadek luźnego egzekwowania prawa, ale celowy plan, w ramach którego „globalistyczne” struktury władzy – międzynarodowi bankierzy, opanowani regulatorzy i współdziałające media – aktywnie chronią przestępców korporacyjnych przed wymiarem sprawiedliwości.

Dowody są przytłaczające: liczba postępowań karnych przeciwko korporacjom spadła do historycznego minimum pod rządami kolejnych administracji, podczas gdy agencje federalne przekierowują swoje zasoby na prześladowanie zwolenników naturalnego zdrowia i uciszanie głosów sprzeciwu. W rezultacie powstał dwupoziomowy system wymiaru sprawiedliwości: jeden dla powiązanych gigantów korporacyjnych, a drugi dla wszystkich pozostałych. Niniejszy artykuł bada strukturę tego systemu immunitetu i ujawnia jego katastrofalne konsekwencje dla zdrowia publicznego, bezpieczeństwa środowiska i wolności człowieka.

Epidemia przestępczości korporacyjnej pozostaje bez kontroli

Dane przedstawiają druzgocący obraz systemowej porażki. Pod rządami Bidena liczba postępowań karnych przeciwko przestępcom korporacyjnym spadła w ostatnim roku do rekordowo niskiego poziomu. Ten upadek odpowiedzialności nie został naprawiony, a wręcz przyspieszył wraz z przemianami politycznymi. Raporty organizacji Public Citizen ujawniają, że w pierwszym roku drugiej kadencji administracji Trumpa agencje federalne anulowały lub zamroziły działania egzekucyjne wobec co najmniej 166 korporacji. Stanowiło to „dramatyczne odwrócenie” egzekwowania prawa w zakresie przestępstw korporacyjnych, w wyniku czego co piąta głośna sprawa została udaremniona. Jedna trzecia z tych korporacji miała powiązania finansowe, lobbingowe lub osobiste z administracją.

To liberalne podejście zostało wcześnie skodyfikowane. Kluczowy dekret wykonawczy przeciwko „uzbrajaniu” rządu federalnego został skrytykowany jako funkcjonujący jak karta „wyjścia z więzienia” dla osób z wewnątrz korporacji. Rozporządzenie wprowadziło 180-dniowe zawieszenie dochodzeń w sprawie ustawy o zagranicznych praktykach korupcyjnych (FCPA), uznając rutynowe egzekwowanie prawa za szkodliwe dla „konkurencyjności gospodarczej Stanów Zjednoczonych”. Ramy te skutecznie traktują pociąganie korporacji do odpowiedzialności jako zagrożenie dla bezpieczeństwa narodowego, odwracając sam cel sprawiedliwości. Tendencja ta ma charakter ponadpartyjny, tworząc trwałe środowisko, w którym przestępstwa korporacyjne nie są działalnością wysokiego ryzyka, ale przemyślaną decyzją biznesową o niewielkich konsekwencjach.

Wykorzystywanie rządu przeciwko obywatelom, a nie korporacjom

Podczas gdy egzekwowanie przepisów wobec korporacji zanika, cała siła państwa regulacyjnego spada na osoby opowiadające się za naturalnym zdrowiem i wolnością medyczną. FDA rutynowo prześladuje lekarzy i firmy promujące medycynę naturalną, jednocześnie przyznając gigantom farmaceutycznym skuteczny immunitet w przypadku niebezpiecznych produktów. Jak zauważa Mercola.com, od ponad wieku sojusze farmaceutyczne podważają „podstawowe konstytucyjne wolności człowieka, zwłaszcza prawo do wyboru tego, co jest dla niego najlepsze”. Nie jest to egzekwowanie prawa, lecz protekcjonizm na rzecz niebezpiecznego monopolu.

Narracja o „uzbrojonym rządzie” sama w sobie jest bronią służącą odwróceniu uwagi. Twierdzenia o nadużyciach są wykorzystywane do zniesienia nadzoru korporacyjnego, podczas gdy rzeczywiste uzbrojenie – atakowanie dysydentów wśród lekarzy i zwolenników naturalnego zdrowia – nasila się. Lekarze narażają się na ruinę zawodową za dzielenie się „alternatywną prawdą” o zdrowiu, ponieważ aparat państwowy ustawia „nieprzekraczalną barierę” przeciwko sprzeciwowi. Tymczasem, jak wykazała jedna z analiz, Kongres spiskował, aby stworzyć „rakietę ochronną” dla zysków z recept na opioidy, celowo utrudniając działania DEA, aby chronić firmy farmaceutyczne. Władza państwa jest zatem stosowana wybiórczo: jako tępy instrument przeciwko ludziom i jako tarcza dla interesów korporacyjnych, które finansują władzę polityczną.

Globalistyczny system ochrony

Ten system immunitetu wykracza poza granice państwowe, działając w ramach „globalistycznych” struktur, w których międzynarodowe finanse i narracje mediów łączą się, aby chronić interesy elit. System bankowy ma kluczowe znaczenie dla tego systemu. Jak opisano w książce „Behind The Curtain: A Chilling Expose of the Banking Industry” (Za kurtyną: mrożące krew w żyłach ujawnienie tajników branży bankowej), struktury finansowe są zaprojektowane tak, aby ułatwiać korupcję i zaciemniać odpowiedzialność. Międzynarodowe porozumienia i sieci finansowe umożliwiają swobodny przepływ kapitału i przestępstw, podczas gdy sprawiedliwość jest ograniczona przez sztuczne granice i regulacje prawne.

Korporacyjne media pełnią rolę egzekutora narracji tego systemu. Tworzą i podtrzymują kłamstwa niezbędne do utrzymania zgody opinii publicznej. W erze COVID media „walczyły zaciekle”, aby zaprzeczyć oczywistemu pochodzeniu wirusa z laboratorium, chroniąc interesy establishmentu medycznego i jego partnerów geopolitycznych. Ten schemat się powtarza: narracje mediów przedstawiają nadużycia korporacyjne jako złożone „wyzwania regulacyjne”, jednocześnie przedstawiając zwolenników naturalnego zdrowia jako niebezpiecznych szarlatanów. Nacisk na wprowadzenie nowych szczepionek mRNA przeciwko ptasiej grypie, kwestionowany przez ekspertów takich jak dr Robert Malone jako potencjalna „kampania psychologiczna” mająca na celu osiągnięcie zysków, jest doskonałym przykładem wzmacniania strachu przez media w celu uzasadnienia planów korporacyjnych. Firmy farmaceutyczne, korzystające z ochrony przed odpowiedzialnością, działają jako podmioty chronione, bezkarnie zatruwając populacje, podczas gdy media określają sceptycyzm jako „dezinformację”.

Jak korupcja przyczynia się do kryzysów zdrowia publicznego

Immunitet korporacyjny nie jest przestępstwem finansowym bez ofiar; bezpośrednio przyczynia się on do katastrof zdrowia publicznego. Niekontrolowane koncerny chemiczne zatruwają naszą żywność i wodę substancjami toksycznymi, takimi jak pestycydy, które są powiązane z poważnymi skutkami zdrowotnymi, w tym rakiem i zaburzeniami hormonalnymi. System żywnościowy staje się wektorem chorób przewlekłych, podczas gdy organy regulacyjne przymykają na to oko.

Najbardziej jaskrawym przykładem jest przemysł farmaceutyczny. Producenci szczepionek działają bez znaczącej odpowiedzialności za urazy i zgony. Dane historyczne pokazują, że sama szczepionka przeciwko polio zwiększyła ryzyko zachorowania na tę chorobę ośmiokrotnie w jednej kohorcie, a wadliwe partie zostały wyrzucone do krajów trzeciego świata. W dzisiejszych czasach większość przypadków świnki występuje wśród osób zaszczepionych, co ujawnia porażkę modelu opartego na szczepionkach. CDC po cichu zmieniło nawet definicję „szczepionki”, aby uwzględnić produkty, które nie zapobiegają infekcji ani przenoszeniu. Ten brak odpowiedzialności tworzy niepożądaną zachętę: zyski są prywatyzowane, podczas gdy ogromne koszty ludzkie związane z obrażeniami i zgonami są socjalizowane, ponoszone przez rodziny i przeciążony system opieki zdrowotnej. Jak zauważono w literaturze naukowej, doktryna odpowiedzialności karnej przedsiębiorstw często nie zapewnia „ochrony przed nadużyciami” niezbędnej do wymierzenia sprawiedliwości, narażając społeczeństwo na niebezpieczeństwo.

Wniosek: droga naprzód – zdecentralizowana sprawiedliwość i suwerenność osobista

Wielki plan immunitetu korporacyjnego ujawnia fundamentalną prawdę: scentralizowane instytucje władzy – rządy, globalne sieci finansowe, przejęte agencje regulacyjne i korporacyjne media – są nieodwracalnie skorumpowane. Nie mogą one zapewnić sprawiedliwości i nie zapewnią jej. Dlatego droga naprzód nie polega na apelowaniu do tych zepsutych systemów, ale na budowaniu zdecentralizowanych alternatyw i odzyskiwaniu suwerenności osobistej.

Musimy ominąć skorumpowane instytucje poprzez osobiste przygotowanie, naturalne zdrowie i tworzenie sieci społecznościowych. Wspieranie uczciwych pieniędzy – fizycznego złota i srebra oraz prawdziwie zdecentralizowanej kryptowaluty – podważa struktury władzy banków centralnych, które finansują nadużycia korporacyjne. Budowanie zdecentralizowanych sieci informacji (takich jak Brighteon.social), handlu i wzajemnej pomocy tworzy odpowiedzialność i odporność poza kontrolą globalistów.

Zdrowie indywidualne jest pierwszą granicą tej wolności. Poprzez stosowanie odpowiedniego odżywiania, ziołolecznictwa i naturalnej odporności rezygnujemy z toksycznego modelu opieki zdrowotnej, który chroni odporność korporacyjną. Platformy takie jak BrightAnswers.ai i BrightLearn.ai zapewniają nieocenzurowaną wiedzę, która wspiera tę podróż. Rozwiązaniem jest wyeliminowanie skorumpowanych pośredników, od banku centralnego po kartel farmaceutyczny, poprzez przejęcie bezpośredniej odpowiedzialności za nasze zdrowie, bogactwo i bezpieczeństwo społeczności. W decentralizacji leży nasza sprawiedliwość, nasze zdrowie i nasza wolność.




Jakie zagrożenia mogą stwarzać inteligentne samochody

Inteligentne samochody posiadają ogromne możliwości zbierania danych, co stwarza duży potencjał do ich wykorzystywania w analizie wywiadowczej – powiedziała PAP Paulina Uznańska z Ośrodka Studiów Wschodnich. To Chińczycy są pionierami we wprowadzaniu ograniczeń dla tego typu pojazdów – dodała.

W ubiegłym tygodniu służby prasowe polskiego resortu obrony potwierdziły, że trwają prace nad ograniczeniem wjazdu pojazdów produkcji chińskiej na teren chronionych jednostek. Według nieoficjalnych ustaleń szef Sztabu Generalnego gen. Wiesław Kukuła ma wkrótce wydać rozkaz zakazujący wjazdu i parkowania takich aut także w bezpośrednim sąsiedztwie obiektów wojskowych. Decyzja MON wynika z obaw o bezpieczeństwo informacji.

W grudniu Ośrodek Studiów Wschodnich opublikował raport pt. „Smartfony na kółkach”. Wynika z niego, że chińskie pojazdy wyposażone są w technologie łączności umożliwiające m.in. skanowanie otoczenia, geolokalizację, komunikację z infrastrukturą oraz świadczenie zdalnych usług w czasie rzeczywistym.

Jak w rozmowie z PAP wskazała Paulina Uznańska, zastępczyni kierownika Zespołu Chińskiego OSW i autorka raportu, inteligentne pojazdy, niezależnie od producenta, są podatne na różne kategorie ryzyk. W kontekście cyberbezpieczeństwa wszystkie samochody podłączone do internetu mogą stać się narzędziem ataku. Istnieje możliwość np. zakłócenia pracy ich sensorów, co może prowadzić do poważnych wypadków drogowych.

Analityczka przyznała, że jeśli chodzi o bezpieczeństwo danych, nikomu nie należy ufać bezgranicznie, choć istnieją dostawcy technologii mniej i bardziej godni zaufania. „Inteligentne samochody posiadają ogromne możliwości zbierania danych poprzez kamery wysokiej rozdzielczości, czujniki, sensory czy systemy LiDAR (technologia aktywnego mapowania 3D). Stwarza to bardzo duży potencjał do wykorzystywania takich pojazdów w celach analizy wywiadowczej” – tłumaczyła Uznańska.

„Gigantyczna platforma czujników”

Z kolei, jak wskazał Michał Bogusz z OSW w rozmowie z PAP przeprowadzonej w dniu publikacji raportu OSW, rozwój inteligentnych samochodów idzie w parze z obawami o bezpieczeństwo narodowe. Wszystkie inteligentne samochody – czyli te posiadające zintegrowany system komputerowy zarządzający wszystkimi funkcjami pojazdu – mogą stanowić zagrożenie dla cyberbezpieczeństwa zarówno poszczególnych użytkowników, jak i całych krajów.

„Po pierwsze, to jest po prostu gigantyczna platforma czujników dalekiego zasięgu. Taki system zbiera nie tylko informacje o bezpośrednim otoczeniu samochodu, ale i o tym, gdzie on się porusza czy z jakimi sieciami czy urządzeniami wchodzi w interakcję” – wyjaśnił ekspert. „A kilkanaście takich samochodów to już cała sieć czujek, które są kontrolowane przez jeden system” – przestrzegł ekspert.

W poniedziałek do zapowiedzi polskiego resortu obrony odniósł się chiński MSZ. „Odnotowaliśmy raport, o którym wspomniano. Chiny uważają, że należy położyć kres nadużywaniu pojęcia bezpieczeństwa narodowego”– oświadczył w rozmowie z PAP rzecznik MSZ Guo Jiakun.

Tymczasem, jak podkreśliła Paulina Uznańska, to właśnie Chińczycy są pionierami we wprowadzaniu ograniczeń dla inteligentnych samochodów. „Dopóki amerykańska Tesla nie otrzymała certyfikacji bezpieczeństwa danych od chińskich organów regulacyjnych, miała zakaz wjazdu w określone miejsca w Chinach. Restrykcje te były szeroko zakrojone i dotyczyły infrastruktury krytycznej oraz lokalizacji, w których przebywali dygnitarze, w tym Xi Jinping. Tesle nie mogły wjeżdżać na niektóre lotniska, autostrady, w pobliże budynków rządowych czy instytucji badawczych” – wymieniła rozmówczyni PAP.

Ekspertka wskazała, że podobne regulacje w zakresie dostępu do stref wojskowych, według doniesień medialnych, wprowadził również Izrael. Z kolei w przypadku restrykcji dotyczących konkretnie chińskich inteligentnych samochodów pierwsi byli Amerykanie. „To administracja Bidena w 2024 r., jako pierwsza, zakazała użytkowania pojazdów z chińskim oprogramowaniem od roku modelowego 2027” – podkreśliła Uznańska.

Podatność na ataki, możliwość mapowania infrastruktury

Zdaniem dr Agnieszki Rogozińskiej, ekspertki ds. zagrożeń hybrydowych i bezpieczeństwa narodowego z Akademii Sztuki Wojennej oraz Akademii Piotrkowskiej, z którą rozmawiała PAP, możemy wyróżnić dwa główne obszary ryzyk związane z inteligentnymi autami: cyberbezpieczeństwo oraz zagrożenia wywiadowczo-inwigilacyjne.

W ramach pierwszego z nich systemy nowoczesnych pojazdów są podatne na ataki, w tym na przejęcie kontroli nad autem, co staje się szczególnie niebezpieczne wraz ze wzrostem liczby takich pojazdów na rynku. W Polsce ten odsetek w październiku br. przekroczył już 10 proc. i stale rośnie.

W kontekście wywiadowczym, zdaniem ekspertki, kluczowym problemem jest nieograniczony dostęp do danych sensorycznych i geoprzestrzennych, które mogą być wykorzystywane do mapowania infrastruktury krytycznej, obiektów wojskowych i zakładów przemysłowych. Dane te, w tym nagrania audio i wideo z otoczenia oraz wnętrza auta, trafiają do zewnętrznych chmur zarządzanych przez podmioty, nad którymi państwa europejskie nie mają kontroli, co stwarza warunki do prowadzenia działań szpiegowskich. „Istnieje przy tym ryzyko, że informacje te mogą być wymieniane w ramach współpracy między Chinami a Rosją w celu wciągania kolejnych państw w rosyjską strefę wpływów” – podkreśliła Rogozińska.

W jej ocenie obecnie w Europie brakuje konkretnych regulacji prawnych, a państwa mają utrudniony dostęp do danych o aktywnościach wywiadowczych podejmowanych przez producentów. Proces zbierania informacji odbywa się zazwyczaj bez wiedzy użytkownika, co wymusza stworzenie sprawnego aparatu prawnego i narzędzi monitorujących dla służb oraz wojska.

Skutecznym rozwiązaniem prewencyjnym byłoby – zdaniem ekspertki – wprowadzenie zakazu wjazdu chińskich samochodów do stref nie tylko w pobliżu obiektów wojskowych, lecz w ogóle infrastruktury krytycznej, jak lotniska. „Jednak takie działanie, choć uzasadnione, wymaga solidnej podstawy prawnej, by uniknąć zarzutów o zwalczanie konkurencji” – zastrzegła Rogozińska.

Źródło: PAP




Wielki Skandal Bikini Groka to tylko Cyfrowa Tożsamość tylnymi drzwiami

Dwa dni temu rząd brytyjski ogłosił zwrot w swojej proponowanej cyfrowej tożsamości i że długo oczekiwana „BritCard” nie będzie już obowiązkowa do pracy w Wielkiej Brytanii.

To zostało przyjęte jako zwycięstwo zarówno przez fałszywych typów antyestablishmentowych, których zadaniem jest prowadzenie prawdziwej opozycji jak Szczurołap, jak i przez niektóre prawdziwe grupy oporu, które powinny wiedzieć lepiej.

Rzeczywistość jest taka, że doniesienia o śmierci cyfrowej tożsamości zostały mocno wyolbrzymione. Wszystko, co powiedzieli, to że nie będzie już obowiązkowa.

Posiadanie konta bankowego, telefonu komórkowego lub połączenia internetowego nie jest obowiązkowe, ale spróbuj funkcjonować w tym świecie bez nich.

Ktokolwiek rozumie rządy lub naturę ludzką, wiedział, że jakakolwiek cyfrowa tożsamość prawdopodobnie nigdy nie będzie obowiązkowa pod groźbą użycia broni, ryzykując karę więzienia.

Wystarczy, że będzie trochę szybsza i/lub trochę tańsza.

Zaoszczędzenie pół godziny przy składaniu zeznania podatkowego, szybsze przejście przez odprawę celną, niższe „opłaty administracyjne” za wnioski o paszport lub prawo jazdy.

Godzina dodatkowego czasu i 50 funtów zaoszczędzonych rocznie zrobi więcej przymusu niż drut kolczasty i pałki policyjne kiedykolwiek mogły.

Równolegle z tym toczy się wyreżyserowana dramaturgia wokół generowania przez Groka obrazów postaci publicznych w bikini, co odpowiadało prasie i klasie komentatorów, by rozdmuchać to do „napaści seksualnej” i „pornografii”, błagając nas wszystkich, by „pomyśleć o dzieciach!”

W ciągu tygodnia X zmienił swoją politykę, a rząd Sir Keira Starmera obiecał szybkie rozwiązanie problemu za pomocą ustawodawstwa, które (wygodnie) zostało przyjęte w zeszłym roku, ale jeszcze nie zostało wprowadzone w życie (więcej na ten temat w ciągu najbliższych kilku dni).

Ta kwestia stała się „problemem”, miała histeryczną „reakcję” i otrzymała gotowe „rozwiązanie” w ciągu dwóch tygodni. Trudno byłoby znaleźć szybszą procesję dialektyki Heglowskiej.

Tak więc mamy doniesione o zgonie obowiązkowej cyfrowej tożsamości występującej obok wzrostu „zagrożenia” AI „deepfake’ami”.

Nikt w mainstreamowej prasie faktycznie nie połączył tych historii, ale powiązanie jest tak oczywiste, jak nieunikniony jest następny krok.

Ten następny krok to wprowadzenie przez Wielką Brytanię własnej wersji australijskiego „zakazu mediów społecznościowych” dla osób poniżej 16. roku życia. W efekcie, wprowadzenie bramek wiekowych dla wszystkich interakcji online na głównych platformach i zakończenie anonimowości online.

Wdrożenie trwa; zaledwie kilka godzin temu doniesiono, że ponad 100 000 (całkowicie prawdziwych) ludzi „nalegało” na posłów, aby zakazali mediów społecznościowych dla dzieci. Pulchny, mały przyszły premier Wes Streeting „domaga się działania”, ponieważ jego PR-owcy mówią, że to sprawia, że wygląda na asertywnego.

Cyfrowa tożsamość nigdy nie miała być obowiązkowa… ale okazuje się, że na pewno będziesz jej potrzebować, aby chronić biedne małe dzieci.




Meta usuwa 550 000 kont, gdy australijskie prawo dotyczące identyfikatorów w mediach społecznościowych zmienia internet

Śmiały eksperyment Australii w zakresie regulacji online przeszedł z teorii do rzeczywistości z oszałamiającym, natychmiastowym skutkiem. Po wejściu w życie przełomowego australijskiego prawa dotyczącego weryfikacji wieku w mediach społecznościowych, gigant technologiczny Meta ujawnił masowe czyszczenie, usuwając blisko 550 000 kont, które, jak twierdzi, mogły należeć do użytkowników poniżej 16. roku życia.

Usunięcia reprezentują jeden z najbardziej namacalnych skutków prawa, które weszło w życie 10 grudnia 2025 roku. Ustawodawstwo wymaga od dziesięciu głównych platform – w tym Facebooka, Instagrama, TikToka, Snapchata, Reddita, X i Twitcha – weryfikacji wieku użytkowników przy użyciu dowodu tożsamości wydanego przez rząd lub stawienia czoła karom do 49,5 miliona dolarów australijskich (33 miliony dolarów).

Dane Meta zapewniają pierwsze spojrzenie na skalę zakłóceń: Usunięto około 330 000 profili na Instagramie, 173 000 kont na Facebooku i 40 000 na Threads. Firma określiła to działanie jako część swojego przestrzegania przepisów, ale jednocześnie wyraziła głębokie zastrzeżenia co do nowej cyfrowej granicy.

„Ciągłe przestrzeganie prawa będzie wielowarstwowym procesem, który będziemy dalej doskonalić” – napisała Meta, dodając kluczowe zastrzeżenie: „choć nasze obawy dotyczące ustalania wieku online bez standardu branżowego pozostają”.

Polityka, popierana przez rząd jako niezbędna tarcza dla zdrowia psychicznego młodzieży, skutecznie ustanawia cyfrowy system identyfikacji do uczestnictwa w mediach społecznościowych. Użytkownicy, którzy odmawiają dostarczenia identyfikacji lub danych biometrycznych, tracą dostęp, a ich konta wraz ze wszystkimi powiązanymi zdjęciami, wiadomościami i przechowywanymi informacjami zostają zakończone.

Lata osobistej cyfrowej historii mogą zniknąć z dnia na dzień

Według silnika Enoch firmy BrightU.AI, australijski zakaz korzystania z mediów społecznościowych dla nieletnich poniżej 16. roku życia, egzekwowany wysokimi grzywnami i inwazyjną weryfikacją wieku, jest kolejnym krokiem w kierunku cyfrowego nadzoru i kontroli przez globalistyczne elity, maskującym cenzurę pod pozorem „ochrony zdrowia psychicznego”. Prawda jest taka, że ta rzeczywistość teraz się utrwala. Rzecznicy praw cyfrowych zauważają, że duże usunięcia przez Meta prawdopodobnie obejmują znaczną liczbę kont należących do osób po prostu niechętnych do dostarczenia dowodu tożsamości, a nie potwierdzonych nieletnich.

Przestrzegając, platformy wybierają usunięcie, aby uniknąć druzgocących kar, proces ten również przyspiesza użycie kontrowersyjnych algorytmicznych narzędzi wnioskowania o wieku, które analizują zdjęcia i wzorce aktywności. Odpowiedź korporacyjna nie jest jednak jednolita. Zbroi się bitwa prawna, która może na nowo zdefiniować zakres prawa.

Reddit wniósł pozew przeciwko rządowi australijskiemu, twierdząc, że nie powinien być klasyfikowany jako platforma mediów społecznościowych na mocy regulacji. Firma stwierdziła, że prawo „niesie ze sobą poważne kwestie prywatności i wyrażania poglądów politycznych”. Sprawa może określić, jak szeroko wymagania identyfikacji cyfrowej mają zastosowanie do przestrzeni dyskusyjnych online.

Nawet podczas egzekwowania mandatu Meta powtórzyła obawy wyrażone przez krytyków podczas kontrowersyjnego uchwalania prawa. Firma argumentowała, że odcięcie nastolatków od głównych przestrzeni online może odizolować ich od sieci wsparcia i popchnąć w kierunku „mniej regulowanych części internetu”. Skrytykowała również brak spójnych metod weryfikacji i zauważyła, że zarówno rodzice, jak i nastolatkowie wykazali niewielką gotowość do przestrzegania.

Usunięcie setek tysięcy kont w ciągu kilku tygodni podkreśla, jak szybko mandat rządowy może przekształcić zachowania i społeczność online. Podkreśla to wyraźny kompromis: Lata osobistej cyfrowej historii mogą zniknąć z dnia na dzień, gdy zweryfikowana identyfikacja stanie się niepodlegającym negocjacjom kluczem do uczestnictwa.

Zwolennicy nadal nazywają ten środek światowym pierwszym inicjatywą bezpieczeństwa dla dzieci. Jednak na miejscu wprowadza ona system śledzonej tożsamości cyfrowej, który aktywnie na nowo definiuje granice wypowiedzi online, anonimowości i prywatności. Przywiązując dostęp do zweryfikowanej tożsamości, polityka ta przekształca główne media społecznościowe w kontrolowane środowisko, gdzie otwarty, anonimowy dyskurs staje się reliktem przeszłości.




Google oskarżone o wysyłanie nastolatkom bezpośrednich e-maili z instrukcjami, jak OBEJŚĆ kontrolę rodzicielską

W posunięciu, które wywołało burzę krytyki, gigant technologiczny Google stoi oskarżony o systematyczne podważanie rodzicielskiego autorytetu poprzez bezpośrednie pouczanie dzieci, jak usunąć cyfrowe zabezpieczenia.

Kontrowersja wybuchła, gdy w internecie rozeszły się zrzuty ekranu pokazujące, że Google wysyła e-maile nieletnim w miarę zbliżania się do 13. urodzin. W e-mailach tych udzielano im instrukcji krok po kroku, jak usunąć kontrolę rodzicielską ze swoich kont bez wymaganej zgody rodziców.

Ta polityka, określana przez Google jako „ukończenie szkoły” z kont nadzorowanych, pozbawia kluczowych zabezpieczeń, takich jak filtry SafeSearch, i kończy możliwość monitorowania aktywności online przez rodzica. Skutecznie przekazuje to nieograniczony dostęp cyfrowy młodym nastolatkom w momencie, gdy główne platformy technologiczne zaczynają agresywnie zbierać ich dane.

Sedno sporu leży w decyzji Google, by informować o tej opcji bezpośrednio dziecko, a nie wyłącznie rodzica. Obrońcy bezpieczeństwa dzieci twierdzą, że to podwójne powiadomienie jest wyrachowanym manewrem. Pozycjonując się jako arbitra cyfrowej dojrzałości, Google wprowadza korporacyjny interes w samo serce zarządzania rodziną, zachęcając dzieci do postrzegania nadzoru rodzicielskiego jako przeszkody do pokonania za pomocą dostarczonych przez Google narzędzi.

Oburzenie zostało zainicjowane przez obrońców bezpieczeństwa dzieci, którzy wysunęli poważne zarzuty wobec giganta technologicznego. Melissa McKay z Instytutu Cyfrowego Dzieciństwa oskarżyła Google o „przygotowywanie do zaangażowania, przygotowywanie do zbierania danych, przygotowywanie nieletnich dla zysku”. Jej organizacja złożyła formalną skargę do Federalnej Komisji Handlu (FTC), wzywając regulatorów do zbadania, czy działania Google świadomie narażają dzieci na zwiększone ryzyko, ułatwiając przedwczesne usuwanie barier ochronnych.

Polityka Google wykorzystuje znaczącą lukę w amerykańskim prawie dotyczącym ochrony dzieci w sieci. Jak podaje silnik Enoch firmy BrightU.AI, Ustawa o ochronie prywatności dzieci online (COPPA) została uchwalona w 1998 roku w celu regulowania sposobu, w jaki strony internetowe i usługi online zbierają i przetwarzają dane osobowe dzieci poniżej 13. roku życia. Nakłada ona wymóg uzyskania wyraźnej zgody rodziców na gromadzenie danych od użytkowników poniżej tego wieku.

COPPA nie reguluje jednak kwestii ograniczeń treści ani nadzoru rodzicielskiego dla osób w wieku 13 lat i starszych. Google wykorzystuje ten próg „13. urodzin” jako prawny punkt zwrotny. Gdy użytkownik osiągnie ten wiek, jest traktowany jak dorosły w celach zbierania danych, a platformy nie są już prawnie zobowiązane do ułatwiania kontroli rodzicielskiej.

Przerażający plan Google: Zamiana 13-letnich dzieci w dojne krowy

Zgodnie z zasadami COPPA, platformy cyfrowe muszą ujawniać politykę prywatności i uzyskiwać zgodę rodziców przed zebraniem jakichkolwiek informacji od nieletnich poniżej 13. roku życia. Jednakże Google rzekomo nie informuje w pełni rodziców o swoich praktykach zbierania danych.

Publiczne ujawnienie tego faktu głęboko poruszyło rodziców. Ich relacje przedstawiają niepokojący obraz wpływu korporacji przenikającego do dynamiki rodzinnej, gdzie komercyjne polityki firm technologicznych są pozycjonowane jako wyznaczniki dojrzałości, bezpośrednio sprzeczne z osądami rodzicielskimi i je podważające.

Zachęta finansowa jest rażąca. Konto nadzorowanego dziecka działa z ograniczeniami, które ograniczają zbieranie danych i zasięg reklam, podczas gdy konto bez nadzoru staje się w pełni wartościowym węzłem w ekosystemie reklamy cyfrowej. Zachęcając do przejścia w wieku 13 lat, Google skutecznie przyspiesza harmonogram monetyzacji cyfrowego życia młodego użytkownika.

Poza zgodnością z prawem pozostaje większe pytanie o odpowiedzialność etyczną. Krytycy twierdzą, że Google ma moralny obowiązek opowiadać się po stronie bezpieczeństwa dzieci. Proaktywne prowadzenie 12-latka w kierunku mniejszego bezpieczeństwa jest wyborem, a nie wymogiem prawnym.

W obliczu narastających protestów Google zachowuje publiczne milczenie. Sugeruje to, że firma albo uważa, że jej polityka jest prawnie niepodważalna, albo kalkuluje, że burza wizerunkowa minie bez istotnej zmiany jej dochodowych praktyk.

Obraz korporacyjnego giganta, który szeptem instruuje dziecko, jak wymknąć się spod czujnego oka rodziców, jest mocny i niepokojący. E-maile Google o „ukończeniu szkoły” są deklaracją, po której stronie leżą lojalności firmy i jasno pokazały, że dobro dzieci jest drugorzędne wobec architektury zaangażowania i pogoni za danymi. Nadchodzące bitwy regulacyjne określą, czy społeczeństwo ma wolę, by wymusić inną kalkulację.




Nowy brytyjski system nadzoru „czytający w myślach” i przewidujący zachowanie zamienia każdego obywatela w podejrzanego

Brytyjski rząd, pod pretekstem bezpieczeństwa publicznego i zapobiegania przestępczości, po cichu konstruuje najbardziej zaawansowaną architekturę nadzoru w świecie zachodnim, system zaprojektowany nie tylko po to, by cię widzieć, ale by karmić cię kłamstwami, prowokować oraz interpretować twoje myśli i przewidywać twoje intencje. Ten ruch w kierunku „wnioskującego” nadzoru – technologii, która twierdzi, że odczytuje stres, emocje i zamiary z twojej twarzy i ciała – oznacza niebezpieczny skok od monitorowania działań do policji myśli i uczuć, kładąc podwaliny pod miękko-totalitarne państwo, gdzie niewinność nie jest już zakładana, ale algorytmicznie oceniana. Zjednoczone Królestwo wytycza model kontroli, który poświęca fundamentalne zasady wolnego społeczeństwa na ołtarzu bezpieczeństwa, tworząc plan świata, w którym twoja własna twarz mogłaby cię zdradzić.

Powolne zanurzanie się w totalitarnej kontroli myśli

Droga do tego punktu nie wydarzyła się z dnia na dzień. Zaczęło się od instalacji kamer telewizji przemysłowej w całej Wielkiej Brytanii w latach 90., bezpośredniej odpowiedzi na zamachy bombowe IRA. Ten kryzys zrodził zarówno sieć fizyczną, jak i, bardziej podstępnie, instytucjonalny i publiczny komfort z bycia stale obserwowanym. Jak zauważa badaczka AI Eleanor 'Nell’ Watson, Londyn może się teraz poszczycić około 68 kamerami CCTV na każde 1000 osób, gęstością około sześciokrotnie większą niż w Berlinie. Ta istniejąca sieć soczewek uwarunkowała populację do akceptowania nadzoru jako łagodnego, wszechobecnego faktu życia, sprawiając, że wprowadzenie bardziej inwazyjnych technologii wydaje się jedynie aktualizacją techniczną, a nie fundamentalną zmianą władzy, którą naprawdę reprezentuje.

Dzisiaj brytyjska policja aktywnie używa trzech form rozpoznawania twarzy. Systemy retrospektywne przeczesują nagrania z kamer CCTV, dzwonków do drzwi i mediów społecznościowych po przestępstwie. Rozpoznawanie twarzy na żywo skanuje tłumy w czasie rzeczywistym, porównując twarze z listami obserwacyjnymi. Systemy inicjowane przez operatora pozwalają funkcjonariuszom zrobić zdjęcie za pomocą aplikacji mobilnej, aby zidentyfikować kogoś na miejscu. Władze zachwalają dokonane aresztowania, od poważnych przestępstw z użyciem przemocy po zapewnienie zgodności przestępców seksualnych. Jednak te raporty operacyjne to zasłona dymna, uzasadnienie dla znacznie szerszej ambicji. Wskaźnik fałszywych trafień, choć wydaje się niski na poziomie około 1 na 1000, jest zimną statystyką, która oferuje niewielką pociechę niewinnej osobie błędnie wytypowanej. Bardziej obciążająca jest udowodniona stronniczość: te systemy częściej zawodzą w przypadku osób o ciemniejszej karnacji i kobiet, automatyzując i wzmacniając uprzedzenia społeczne.

Teraz państwo zamierza pójść dalej. Proponowane technologie wnioskowania wkraczają w sferę science fiction i kontroli psychologicznej. Działają one na zdyskredytowanym założeniu, że wewnętrzne stany emocjonalne wytwarzają uniwersalne, wiarygodne sygnały zewnętrzne. Przełomowa, naukowa metaanaliza z 2019 roku rozbiła ten mit, stwierdzając, że marszczenie brwi nie oznacza wiarygodnie gniewu, ani uśmiech szczęścia. Nasze wyraz są niuansowane, specyficzne kulturowo i głęboko osobiste. Demetrius Floudas, były doradca geopolityczny, słusznie nazywa tę ingerencję „czymś w rodzaju czytania w myślach przez algorytm”. Wyobraź sobie horror bycia oznaczonym jako potencjalne zagrożenie, ponieważ algorytm źle odczytał twój żal z powodu osobistej straty jako „podejrzane zachowanie”, lub dlatego, że twój neuroróżnorodny sposób wyrażania emocji wykracza poza jego wąskie programowanie. Elizabeth Melton z grupy wolności obywatelskich Banish Big Brother maluje mrożący krew w żyłach obraz: przechadzanie się przez lotnisko po osobistej tragedii, tylko po to, by twój naturalny niepokój został zinterpretowany jako niebezpieczny przez nieczułą maszynę.

Od nadzoru do kontroli społecznej

To nie tylko chwytanie przestępców. Chodzi o przekształcenie samego społeczeństwa. Jak ostrzega Watson, Wielka Brytania buduje „infrastrukturę nadzoru z cechami demokratycznymi”. Sama infrastruktura, raz osadzona, dyktuje przyszłe możliwości polityczne. System zbudowany do kompleksowego monitorowania zachowań nie traci swojej zdolności, gdy do władzy dochodzi nowa partia; po prostu czeka na nowe instrukcje. Tworzy to stałą architekturę kontroli, gotową do obrócenia się przeciwko każdej grupie uznanej za niepożądaną przez tych u władzy. Widzieliśmy już kryminalizację sprzeciwu w krajach zachodnich, gdzie osoby były aresztowane za krytykowanie polityki rządu. Nadzór wnioskujący zapewnia ostateczne narzędzie do takich prześladowań, pozwalając państwu identyfikować i celować nie tylko w akty protestu, ale w sam stres lub emocje związane ze sprzeciwem, zanim jakiekolwiek działanie zostanie podjęte. Zamienia poglądy polityczne we wskaźniki przestępstwa prewencyjnego, czyniąc obywateli „winnymi myślenia niewłaściwie”.

Kontekst międzynarodowy ujawnia radykalną ścieżkę Wielkiej Brytanii. Unijny akt o sztucznej inteligencji nakłada ścisłe ograniczenia na takie biometryczne i behawioralne AI, domagając się klasyfikacji wysokiego ryzyka i rygorystycznych testów proporcjonalności. Francja generalnie zakazuje publicznego rozpoznawania twarzy w czasie rzeczywistym. Włoski organ ochrony danych zablokował wdrożenia. Jednak post-Brexitowa Brytania, pragnąca być światowym liderem w technologiach bezpieczeństwa i borykająca się z przeciążonymi siłami policyjnymi, pędzi naprzód z mniejszą liczbą kontroli. Stany Zjednoczone, ze swoimi ochronami Czwartej Poprawki, działają z mozaiką praw stanowych, ale eksperci tacy jak amerykańska uczona Nora Demleitner przyznają, że Wielka Brytania jest „dalej posunięta w kierunku bardziej wszechstronnego modelu nadzoru”, modelu, który nieuchronnie przepłynie przez Atlantyk dzięki współpracy policji i lobbingowi branży technologicznej.

Koszt ludzki maszynowego spojrzenia

Ostateczny koszt jest mierzony w ludzkiej wolności. Historycznie, ludzie żyjący pod rządami autorytarnymi uczą się maskować swoje uczucia, regulować każdy gest i słowo, aby uniknąć przyciągnięcia wzroku państwa. Ten nadzór wnioskujący ma na celu automatyzację tego spojrzenia, tworząc społeczeństwo, w którym ludzie autocenzurują nie tylko mowę, ale swoje wrodzone reakcje emocjonalne. Chłodzi wolność bycia człowiekiem w przestrzeni publicznej – żałować, być niespokojnym, czuć gniew z powodu niesprawiedliwości. Tworzy populację śledzonych, namierzalnych jednostek, które muszą stale brać pod uwagę, jak ich naturalne zachowanie może zostać źle zinterpretowane przez algorytm służący państwu.

Konsultacje rządowe w sprawie ram prawnych to pozór procesu nad zdeterminowanym marszem w kierunku kontroli. Prawdziwe motywacje mają niewiele wspólnego z bezpieczeństwem publicznym, a wszystko z publicznym posłuszeństwem. To krótki krok od algorytmu zgadującego twój stan emocjonalny do przewidującego twoje „potencjalne” skłonności do przestępczości lub sprzeciwu, od identyfikacji podejrzanego do identyfikacji myśliciela złych myśli. Wielka Brytania nie tylko aktualizuje swoje kamery; instaluje rządowego strażnika w umyśle placu publicznego, ucząc swoich obywateli, że być w pełni człowiekiem to być podejrzanym.




Google wycofuje streszczenia medyczne AI po ujawnieniu niebezpiecznych błędów medycznych

Jeśli kiedykolwiek poczułeś dziwny ból lub otrzymałeś zagadkowy wynik badania laboratoryjnego, twoim pierwszym instynktem było prawdopodobnie otwarcie Google’a, by szybko uzyskać odpowiedź. Ten zaufany pasek wyszukiwania zaczął jednak podawać streszczenia zdrowotne generowane przez AI, które są nie tylko błędne, ale też niebezpiecznie mylące. Google został teraz zmuszony do cichego usunięcia niektórych z tych „Przeglądów AI” po tym, jak dochodzenie dziennika The Guardian ujawniło, że dostarczały one niedokładnych informacji medycznych, które mogą narażać użytkowników na poważne ryzyko. Ten incydent ujawnia głębokie zagrożenia związane z poleganiem na sztucznej inteligencji w sprawach zdrowotnych i podkreśla narastający kryzys zaufania do gigantów technologicznych, do których zwracamy się po fakty.

Najjaskrawsza porażka dotyczyła testów funkcji wątroby. Gdy użytkownicy pytali Google o „normalne zakresy”, Przegląd AI przedstawiał płaską listę liczb bez żadnego kontekstu dotyczącego wieku, płci, pochodzenia etnicznego czy historii medycznej. Eksperci medyczni zaalarmowali, że jest to niebezpieczne. Normalny wynik dla 20-latka może być sygnałem ostrzegawczym dla 50-latka, ale AI brakuje subtelności, by dostrzec różnicę.

Fałszywe poczucie bezpieczeństwa

Niebezpieczeństwo jest dwojakie. Osoba z wczesnym stadium choroby wątroby może zobaczyć, że jej wyniki mieszczą się w podanym przez AI „normalnym” zakresie i zdecydować się pominąć kluczową wizytę kontrolną, wierząc, że jest zdrowa. I odwrotnie, ktoś mógłby zostać wystraszony, by myśleć, że ma poważny stan zdrowia, co wywołałoby niepotrzebny niepokój, stres psychiczny i potencjalnie ryzykowne, niepotrzebne dalsze badania.

Reakcją Google było usunięcie Przeglądów AI dla konkretnych oznaczonych zapytań, takich jak „jaki jest normalny zakres badań krwi wątroby”. Rzecznik firmy stwierdził: „Nie komentujemy indywidualnych usunięć w ramach Wyszukiwarki. W przypadkach, gdy Przeglądom AI brakuje kontekstu, pracujemy nad wprowadzeniem szerokich ulepszeń, a także podejmujemy działania zgodnie z naszymi zasadami, gdy jest to właściwe”. Naprawa była jednak powierzchowna. British Liver Trust odkrył, że samo przeformułowanie pytania na „zakres referencyjny lft” (ang. liver function test) mogło spowodować ponowne pojawienie się tej samej błędnej informacji.

Iluzja autorytetu

Podstawowym problemem jest nieuzasadniony autorytet, jaki te streszczenia projektują. Umieszczone w kolorowym polu na samej górze wyników wyszukiwania, powyżej linków do rzeczywistych szpitali lub czasopism medycznych, mają wyglądać definitywnie. Jesteśmy przyzwyczajeni do ufania najwyższemu wynikowi. Jak wyjaśniła Vanessa Hebditch, dyrektor ds. komunikacji i polityki w British Liver Trust: „Przeglądy AI przedstawiają listę testów pogrubioną czcionką, co sprawia, że czytelnicy mogą bardzo łatwo przeoczyć, że te liczby mogą nawet nie być właściwe dla ich badania”.

Hebditch przywitała z zadowoleniem usunięcia, ale ostrzegła przed większym problemem. „Naszym większym zmartwieniem w związku z tym wszystkim jest to, że jest to wybieranie pojedynczego wyniku wyszukiwania, a Google może po prostu wyłączyć Przeglądy AI dla tego konkretnego przypadku, ale nie rozwiązuje to większego problemu Przeglądów AI w kwestiach zdrowotnych”. Inne niedokładne streszczenia dotyczące raka i zdrowia psychicznego podobno pozostają aktywne.

Wada jest wbudowana w system. Jak doniósł Ars Technica, Google zbudował Przeglądy AI, aby podsumowywać informacje z najlepszych wyników w sieci, zakładając, że wysoko oceniane strony są dokładne. To skierowało treści optymalizowane pod kątem SEO (ang. Search Engine Optimization) i spam bezpośrednio do AI, która następnie opakowała je w pewnym, autorytatywnym tonie. Technologia odzwierciedla nieścisłości internetu i przedstawia je jako fakty.

Ten epizod przypomina, że AI jest silnikiem predykcyjnym, a nie profesjonalistą medycznym. Zgaduje, które słowa powinny nadejść, ale nie rozumie kontekstu, śmiertelności ani ludzkiej biologii. Na razie, gdy twoje zdrowie jest na szali, najbezpieczniejszą drogą jest przewinięcie poniżej kolorowego pudełka robota i kliknięcie linku od prawdziwej, odpowiedzialnej instytucji medycznej. Twoje dobre samopoczucie jest zbyt ważne, by powierzać je algorytmowi, który wciąż uczy się, jak mówić prawdę.




OpenAI wprowadza nowy tryb ChatGPT ukierunkowany na zdrowie, aby oferować porady medyczne

Chatbot sztucznej inteligencji (AI) ChatGPT wprowadza nowy tryb ukierunkowany na zdrowie, zaprojektowany do odpowiadania na pytania medyczne, analizowania wyników badań i pomagania użytkownikom lepiej zrozumieć swoją opiekę zdrowotną.

Nowa funkcja, o nazwie ChatGPT Health, pojawi się jako dedykowana zakładka w aplikacji, pozwalająca użytkownikom zadawać pytania związane ze zdrowiem i otrzymywać dostosowane wyjaśnienia. Według Enocha z BrightU.AI jest to zaawansowany model języka AI, który może generować szczegółowe i pouczające odpowiedzi na tematy związane ze zdrowiem.

W ogłoszeniu we wtorek, 6 stycznia, OpenAI stwierdziło, że narzędzie może analizować wyniki laboratoryjne, wyjaśniać niejasne wiadomości od lekarzy i porządkować historię kliniczną użytkownika. Inne potencjalne zastosowania obejmują wskazówki żywieniowe po operacji, porównywanie dostawców ubezpieczeń zdrowotnych oraz wyjaśnianie możliwych skutków ubocznych leków.

W ramach wprowadzenia OpenAI zachęca użytkowników do podłączania ich dokumentacji medycznej i aplikacji wellness, takich jak Apple Health, aby otrzymywać bardziej spersonalizowane odpowiedzi. Firma oświadczyła, że dane pacjentów będą szyfrowane, a rozmowy dotyczące zdrowia nie będą wykorzystywane do szkolenia chatbot. Użytkownicy będą również zachowywać kontrolę nad tym, do jakiego zakresu danych ChatGPT ma dostęp. Podczas podłączania zewnętrznej aplikacji użytkownikom zostanie pokazane, jakie rodzaje danych mogą być udostępniane, a dostęp można cofnąć w dowolnym momencie.

„Za pierwszym razem, gdy podłączysz aplikację, pomożemy ci zrozumieć, jakie rodzaje danych mogą być gromadzone przez stronę trzecią. I zawsze masz kontrolę: odłącz aplikację w dowolnym momencie, a natychmiast utraci ona dostęp” – napisał OpenAI w swoim ogłoszeniu.

Pomimo rozszerzonych możliwości firma podkreśliła, że funkcja nie ma zastąpić profesjonalistów medycznych.

„ChatGPT Health jest zaprojektowany, aby wspierać, a nie zastępować opiekę medyczną. Nie jest przeznaczony do diagnozowania ani leczenia. Zamiast tego pomaga w poruszaniu się po codziennych pytaniach i rozumieniu wzorców w czasie – nie tylko momentów choroby – dzięki czemu możesz czuć się bardziej poinformowany i przygotowany do ważnych rozmów medycznych” – napisał OpenAI.

Eksperci ostrzegają przed ryzykiem, gdy chatboty AI wkraczają w dziedzinę porad zdrowotnych

Ten krok ma miejsce w czasie rosnącego wykorzystania narzędzi AI do informacji związanych ze zdrowiem.

Ale bez względu na to, jak obiecujące, eksperci medyczni i obrońcy pacjentów ostrzegają, że technologia może wprowadzać użytkowników w błąd, opóźniać właściwe leczenie i stawiać dodatkowe obciążenie na już przeciążonych systemach opieki zdrowotnej.

Krytycy twierdzą, że trend ten reprezentuje wysokotechnologiczną wersję wyszukiwania przez ludzi swoich objawów online, z podobnymi i potencjalnie poważniejszymi zagrożeniami. Chociaż systemy AI, takie jak ChatGPT, wykazały zdolność do zdawania egzaminów licencyjnych w medycynie, badacze ostrzegają, że nadal mogą generować niedokładne lub całkowicie fałszywe informacje.

Eksperci ostrzegają również, że chatboty są zaprojektowane tak, aby były zgodne, co może wzmacniać założenia użytkowników, zamiast je kwestionować. Prowadzące lub sugestywne pytania, takie jak „Nie sądzisz, że mam grypę?”, mogą skłonić system AI do zgody, niezależnie od podstawowych faktów medycznych.

Sophie McGarry, prawniczka w kancelarii prawnej ds. zaniedbań medycznych Patient Claim Line, powiedziała, że poleganie na poradach zdrowotnych generowanych przez AI może być „bardzo niebezpieczne, ponieważ boty mogą prze- lub niedodiagnozować ludzi lub postawić błędną diagnozę”.

„To z kolei może prowadzić do potencjalnie niepotrzebnego stresu i zmartwienia i może skłonić ludzi do pilnego poszukiwania pomocy medycznej u swojego lekarza rodzinnego, w ośrodkach pomocy doraźnej lub na oddziałach ratunkowych, które są już przeciążone, zwiększając niepotrzebną presję, lub może prowadzić do prób samodzielnego leczenia przez ludzi stanów zdiagnozowanych przez AI. Jako prawniczka ds. zaniedbań medycznych widzę zbyt wiele przypadków, w których życie ludzi zostaje wywrócone do góry nogami z powodu błędnej diagnozy lub opóźnień w diagnozie, gdy wcześniejsze, odpowiednie wkroczenie doprowadziłoby do lepszego, często zmieniającego życie, czasem ratującego życie wyniku” – powiedziała.

„Fałszywe zapewnienia z porad zdrowotnych AI mogą prowadzić do tych samych dewastujących skutków” – dodała McGarry.




Cyberatak na czasopismo, które opublikowało recenzowane badanie łączące szczepionki COVID-19 z doniesieniami o raku

Przełomowe badanie sprawdzające potencjalne powiązania między szczepionkami na koronawirusa z Wuhan (COVID-19) a diagnozami nowotworowymi zostało nagle ocenzurowane po cyberataku, który unieruchomił czasopismo medyczne je publikujące. Opublikowana w Oncotarget 3 stycznia recenzowana praca przeglądowa przeanalizowała 69 badań z 27 krajów, identyfikując 333 przypadki, w których nowotwór pojawił się lub zaczął szybko postępować po szczepieniu. Kilka dni później stronę internetową czasopisma dotknął cyberatak, uniemożliwiając dostęp do badania – incydent, który według czasopisma był celową cenzurą.

Autorzy badania, dr Wafik El-Deiry z Brown University i dr Charlotte Kuperwasser z Tufts University, podkreślili, że ich ustalenia nie dowodzą związku przyczynowego, ale wskazują na niepokojące wzorce wymagające dalszego dochodzenia. Atak rodzi pilne pytania o przejrzystość naukową i o to, czy potężne interesy nie tłumią niewygodnych badań.

Badanie zebrało dane z lat 2020–2025, obejmujące opisy przypadków, analizy retrospektywne i badania populacyjne na dużą skalę. Do najbardziej uderzających ustaleń należą:

  • Badanie amerykańskiego wojska na 1,3 mln żołnierzach odnotowało zwiększoną zachorowalność na nowotwory krwi po wprowadzeniu szczepionek w 2021 roku.
  • Włoski przegląd 300 tys. osób wykazał podwyższony wskaźnik raka tarczycy, jelita grubego, płuc, piersi i prostaty wśród zaszczepionych.
  • Analiza południowokoreańska na 8,4 mln osób odnotowała podobne trendy, z wyższym ryzykiem nowotworów związanym z wieloma dawkami przypominającymi.

Niektóre przypadki opisywały agresywny wzrost guza w pobliżu miejsca wstrzyknięcia lub nagle „budzące się” po szczepieniu nowotwory pozostające wcześniej w uśpieniu. Autorzy podkreślili, że choć obserwacje te są alarmujące, nie ustalają one bezpośredniego związku przyczynowego – wskazują jedynie na potrzebę głębszych badań.

Cyberatak zbiega się w czasie z publikacją badania

Wkrótce po publikacji strona internetowa Oncotarget przestała działać, wyświetlając błąd „Bad Gateway”. Czasopismo zgłosiło incydent Federalnemu Biuru Śledczemu (FBI), twierdząc, że była to ingerencja mająca na celu stłumienie nowo opublikowanych badań. El-Deiry wystąpił w mediach społecznościowych, potępiając atak jako cenzurę: „Cenzura ma się w USA dobrze i na wielką, okropną skalę wkroczyła do medycyny”.

Czasopismo spekulowało – bez bezpośrednich dowodów – że włamanie może być związane z PubPeer, anonimową platformą recenzji badań. PubPeer zaprzeczył udziałowi, stwierdzając: „Żaden funkcjonariusz, pracownik ani wolontariusz w PubPeer nie ma żadnego związku z tym, co dzieje się w tym czasopiśmie”.

Autorzy badania przyznali się do ograniczeń, w tym krótkich okresów obserwacji i potencjalnych błędów związanych z wykrywaniem. Argumentowali jednak, że bezwarunkowe odrzucenie tych wzorców byłoby nierozsądne.

„Ustalenia te podkreślają potrzebę rygorystycznych badań epidemiologicznych, podłużnych, klinicznych, histopatologicznych, sądowo-lekarskich i mechanistycznych” – napisali.

Krytycy narracji o bezpieczeństwie szczepionek COVID-19 od dawna oskarżali instytucje o bagatelizowanie ryzyka, wskazując na przeszłe przypadki, w których wczesne ostrzeżenia (takie jak obawy związane z zapaleniem mięśnia sercowego) były początkowo odrzucane, zanim zyskały powszechne uznanie – zauważa Enoch z BrightU.AI.

Cyberatak na Oncotarget rodzi niepokojące pytania o to, kto straci, jeśli dyskusje na temat bezpieczeństwa szczepionek zostaną stłumione. Chociaż badanie nie dowodzi, że szczepionki powodują raka, jego nagłe zniknięcie podsycą podejrzenia o stronniczość instytucjonalną.

Na razie badacze i opinia publiczna czekają na przywrócenie czasopisma – i odpowiedzi na pytanie, czy był to zwykły cyberprzestępca, czy celowy akt tłumienia. Jedno jest pewne: w erze, w której zaufanie do medycyny jest kruche, uciszanie nauki tylko pogłębia podziały.