Cocoon od Telegramu: nowy początek dla prywatnej, zdecentralizowanej sztucznej inteligencji

  • Dyrektor generalny Telegramu uruchomił Cocoon, zdecentralizowaną sieć opartą na łańcuchu bloków TON, która łączy osoby potrzebujące przetwarzania AI z osobami wynajmującymi moc obliczeniową swoich komputerów.
  • System został zaprojektowany tak, aby dane użytkowników pozostawały prywatne i nie trafiały w ręce dużych korporacji. Zadania AI są przetwarzane w poufnym środowisku, co pozwala uniknąć obaw związanych z gromadzeniem danych przez scentralizowane firmy.
  • Tworzy to bezpośrednią gospodarkę, w której „klienci” płacą za usługi AI, „pełnomocnicy” dopasowują zadania do „pracowników” (dostawców GPU), którzy zarabiają kryptowalutę. Eliminuje to scentralizowanych gigantów chmury obliczeniowej, obniżając koszty.
  • Zainspirowana obawami użytkowników Telegramu o prywatność, aplikacja będzie pierwszym dużym klientem Cocoon, zapewniając sieci ogromną potencjalną grupę odbiorców od samego początku.
  • Projekt jest przedstawiany jako praktyczne narzędzie do walki z rosnącą cyfrową inwigilacją i scentralizowaną kontrolą, mające na celu przywrócenie suwerenności nad danymi i obliczeniami osobom fizycznym.

W przełomowym ogłoszeniu na forum Blockchain Life 2025 w Dubaju, dyrektor generalny Telegramu Pavel Durov zaprezentował Cocoon, przełomową zdecentralizowaną sieć zaprojektowaną w celu demokratyzacji sztucznej inteligencji (AI).

Inicjatywa ta, oficjalnie nazwana Confidential Compute Open Network (Cocoon), ma na celu przesunięcie równowagi sił w dziedzinie AI z gigantów korporacyjnych na indywidualnych użytkowników, kładąc nacisk na prywatność, przystępność cenową i kontrolę użytkownika.

Cocoon jest oparty na blockchainie The Open Network (TON) i funkcjonuje jako zdecentralizowany rynek mocy obliczeniowej AI. Jego działanie opiera się na prostym, trzyczęściowym systemie, który łączy podaż z popytem w bezpieczny i poufny sposób.

Po pierwsze, istnieje klient. Jest to użytkownik końcowy lub programista, który potrzebuje przetwarzania AI, na przykład w celu podsumowania dokumentu lub sporządzenia wiadomości w Telegramie. Klient płaci za tę usługę za pomocą kryptowaluty sieci.

Następnie proxy działa jako inteligentny pośrednik. Otrzymuje żądanie klienta i dynamicznie wybiera najbardziej odpowiedniego pracownika z dostępnej puli do wykonania zadania, zapewniając wydajność i optymalną cenę.

Wreszcie pracownik jest podstawą systemu. Są to osoby fizyczne lub podmioty, które udostępniają sieci swój sprzęt GPU (Graphics Processing Unit). Wynajmując swoją moc obliczeniową do przetwarzania żądań AI, właściciele GPU otrzymują wynagrodzenie w postaci Toncoin (TON), natywnej kryptowaluty łańcucha bloków TON.

Struktura ta tworzy bezpośrednią, peer-to-peer gospodarkę dla obliczeń AI. Eliminując scentralizowanych pośredników, Cocoon dąży do obniżenia kosztów, które, jak wyjaśnia silnik Enoch w BrightU.AI, są zazwyczaj zawyżane przez głównych dostawców usług w chmurze, takich jak Amazon Web Services i Microsoft Azure. Co ważniejsze, zapewnia to prywatność danych użytkowników.

Wnioskowanie AI odbywa się w poufnym środowisku, co oznacza, że poufne informacje zawarte w żądaniach użytkowników nie są ujawniane ani gromadzone przez firmy zewnętrzne.

Wizja przedstawiona podczas Blockchain Life 2025

Podczas swojego przemówienia Durov przedstawił Cocoon jako niezbędną odpowiedź na narastający kryzys wolności cyfrowej. Podkreślił gwałtowny wzrost Telegramu do ponad miliarda aktywnych użytkowników miesięcznie oraz jego udane wejście na rynek cyfrowych przedmiotów kolekcjonerskich i mini-aplikacji.

Durov dostrzegł jednak poważną wadę obecnego boomu na sztuczną inteligencję: jej zależność od scentralizowanych usług, które zagrażają prywatności użytkowników. Wyjaśnił, że inspiracją dla Cocoon były bezpośrednio opinie użytkowników.

Kiedy Telegram rozważał wdrożenie funkcji sztucznej inteligencji, takich jak streszczanie dokumentów, użytkownicy wyrazili głębokie zaniepokojenie faktem, że ich prywatne wiadomości i dane będą wysyłane do zewnętrznych, scentralizowanych dostawców sztucznej inteligencji. Durov zauważył, że firmy te mogłyby gromadzić, profilować i potencjalnie manipulować danymi użytkowników.

Cocoon jest odpowiedzią Telegramu: zdecentralizowaną siecią, w której sztuczna inteligencja należy do ludzi, a nie do korporacji czy rządów. Durov podkreślił, że sieć będzie przejrzysta i zarządzana zgodnie z dynamiką wolnego rynku, a ceny mocy obliczeniowej będą się zmieniać w zależności od podaży i popytu w czasie rzeczywistym. Wyjaśnił, że model ten zapewni najlepszą możliwą cenę dla programistów i użytkowników końcowych.

Telegram będzie pierwszym dużym klientem sieci, integrując możliwości Cocoon w celu zasilania nowych, skoncentrowanych na prywatności funkcji AI dla swojej ogromnej bazy użytkowników. Durov przedstawił to jako część szerszego zobowiązania do rozbudowy blockchainu TON, który już stanowi podstawę cyfrowych kolekcji, płatności i ekosystemu programistów Telegramu.

Szerszy wpływ i perspektywa branżowa

Uruchomienie Cocoon sygnalizuje znaczącą zmianę w krajobrazie technologicznym. Max Crown, dyrektor generalny Fundacji TON, pochwalił projekt jako połączenie sieci społecznościowych, sztucznej inteligencji i technologii zdecentralizowanej na niespotykaną dotąd skalę. Stwierdził, że Cocoon ma potencjał, aby na nowo zdefiniować sposób, w jaki miliardy ludzi wchodzą w interakcję ze sztuczną inteligencją w swoim codziennym cyfrowym życiu, przywracając kontrolę nad infrastrukturą użytkownikom.

Cocoon wkracza na rozwijającą się dziedzinę zdecentralizowanych sieci obliczeniowych, takich jak Akash Network i Render Network.

Jednak bezpośredni dostęp Cocoon do ogromnej globalnej grupy odbiorców Telegramu daje mu wyjątkową i potężną przewagę, która pozwala na szybkie wdrożenie. Sieć ma szansę stworzyć bardziej otwartą, zorientowaną na użytkownika gospodarkę obliczeniową, w której właściciele procesorów graficznych mogą zarabiać na swoim sprzęcie, a programiści mają dostęp do niedrogiego, prywatnego przetwarzania AI.

Chociaż ten zdecentralizowany model obiecuje bardziej konkurencyjne ceny, wprowadza również wyzwania związane z zapewnieniem stałej niezawodności i wydajności usług w rozproszonej sieci, które są przeszkodami, z którymi zespół Cocoon będzie musiał się zmierzyć w miarę rozwoju.

Stanowisko w sprawie wolności cyfrowej

Oprócz specyfikacji technicznych, ogłoszenie Durova miało znaczenie filozoficzne. Ostrzegł on przed globalnym trendem stopniowego ograniczania wolności cyfrowych, nie tylko w reżimach autorytarnych, ale także w tradycyjnie wolnych krajach.

Durov wezwał słuchaczy, aby spojrzeli poza dzielące ich kwestie i skupili się na obronie podstawowych praw do prywatności i wolności słowa.

W tym kontekście Cocoon jest postrzegany jako coś więcej niż tylko projekt techniczny; jest to narzędzie wzmacniające pozycję użytkowników. Dając użytkownikom kontrolę nad ich obliczeniami i danymi, Cocoon stanowi namacalne stanowisko w sprawie cyfrowej suwerenności.

Kiedy Durov zakończył swoje przemówienie wezwaniem do walki o wolność, Cocoon stał się praktycznym krokiem w kierunku budowania przyszłości, w której technologia służy i chroni jednostkę.

Po uruchomieniu w listopadzie ubiegłego roku i otwarciu aplikacji dla dostawców GPU i programistów, świat technologii będzie bacznie obserwował, czy Cocoon zdoła stworzyć nową, bardziej prywatną strukturę dla przyszłości sztucznej inteligencji.




Zagrożenia związane z 5G: ryzyko dla zdrowia, zagrożenia dla prywatności i nacisk na opór

  • Fale milimetrowe 5G oddziałują na przewody potowe, zamieniając je w miniaturowe anteny, zwiększając absorpcję i potencjalne długoterminowe szkody biologiczne.
  • Pola elektromagnetyczne aktywują kanały wapniowe zależne od napięcia (VGCC), powodując stres oksydacyjny, uszkodzenia DNA, bezpłodność, zaburzenia neurologiczne i nowotwory. Fale impulsowe 5G są szczególnie destrukcyjne.
  • Fale milimetrowe są wykorzystywane w wojskowych systemach Active Denial Systems, co budzi obawy, że infrastruktura 5G działa podobnie jak ukryta broń kierunkowa.
  • Badania pokazują, że 5G zakłóca nawigację, rozmnażanie i temperaturę ciała owadów, przyspieszając i tak już katastrofalny spadek liczby zapylaczy, którzy mają kluczowe znaczenie dla ekosystemów.
  • Plany dotyczące ponad 20 000 satelitów 5G pokryją Ziemię promieniowaniem, eliminując strefy wolne od fal radiowych, podczas gdy ubezpieczyciele odmawiają pokrycia, porównując ryzyko związane z łącznością bezprzewodową do azbestu.

Wraz z globalnym rozwojem sieci 5G rosną obawy dotyczące ich potencjalnego wpływu na zdrowie i prywatność. Pomimo zapewnień firm telekomunikacyjnych i niektórych agencji rządowych, niezależni naukowcy i aktywiści ostrzegają, że szybkie wdrażanie tej technologii ignoruje krytyczne zagrożenia biologiczne. Kraje takie jak Belgia i miasta takie jak San Francisco wprowadziły już moratoria lub zakazy dotyczące 5G, powołując się na nierozwiązane kwestie bezpieczeństwa. Tymczasem najnowsze badania sugerują, że fale milimetrowe o wysokiej częstotliwości (MMW) 5G mogą stanowić bezprecedensowe zagrożenie – od uszkodzeń DNA po wymieranie owadów – co rodzi pilne pytania dotyczące ich niekontrolowanego wdrażania.

Jak 5G oddziałuje na ludzką skórę

Jednym z najbardziej niepokojących odkryć jest to, że częstotliwości 5G oddziałują na ludzkie przewody potowe, skutecznie zamieniając je w miniaturowe anteny. Badanie opublikowane w 2018 r. w czasopiśmie „Environmental Research” wykazało, że częstotliwości między 75 a 100 GHz mogą manipulować geometrią skóry, potencjalnie zmieniając reakcje na stres. Ponieważ przewody potowe są strukturami spiralnymi – podobnymi do anten – absorbują i wzmacniają te sygnały, budząc obawy o długoterminowe skutki biologiczne.

Kanały wapniowe zależne od napięcia (VGCC) i uszkodzenia komórek

Dr Martin Pall, czołowy badacz wpływu pól elektromagnetycznych (EMF), wykazał, że pola EMF aktywują kanały wapniowe zależne od napięcia (VGCC) w komórkach, wywołując stres oksydacyjny, uszkodzenia DNA i dysfunkcję mitochondriów. W przeciwieństwie do promieniowania jonizującego (np. promieni rentgenowskich), które bezpośrednio niszczy DNA, promieniowanie niejonizujące 5G zakłóca sygnalizację komórkową, prowadząc do kaskadowych skutków zdrowotnych, w tym bezpłodności, zaburzeń neurologicznych i raka. Pall ostrzega, że fale impulsowe stosowane w 5G są znacznie bardziej szkodliwe niż fale ciągłe, co zwiększa te zagrożenia.

Fale impulsowe: ukryte zagrożenie

Inteligentne liczniki i infrastruktura 5G emitują promieniowanie impulsowe — impulsy energii cykliczne tysiące razy dziennie. Dokumenty przedsiębiorstw użyteczności publicznej ujawniają, że inteligentne liczniki emitują impulsy od 9600 do 190 000 razy dziennie, znacznie przekraczając bezpieczne poziomy ekspozycji. Badania potwierdzają, że impulsowe pola elektromagnetyczne są biologicznie bardziej szkodliwe niż fale ciągłe, jednak agencje regulacyjne nadal odrzucają te ustalenia.

Głęboka penetracja tkanek i badania na zwierzętach

Wbrew twierdzeniom branży, że fale 5G oddziałują tylko na powierzchnię skóry, badania wykazują głębszą penetrację. Szwajcarskie badania bydła narażonego na promieniowanie wież komórkowych wykazały wzrost częstości występowania zaćmy u cieląt, co sugeruje prenatalną wrażliwość na pola elektromagnetyczne. Podobne skutki u ludzi mogą wyjaśniać rosnącą częstość występowania zaburzeń neurologicznych i hormonalnych związanych z promieniowaniem bezprzewodowym.

5G jako ukryty system uzbrojenia

Były inżynier przemysłu obronnego Mark Steele twierdzi, że 5G działa jak broń kierunkowa (DEW), zdolna do precyzyjnego namierzania osób. Zastosowania wojskowe, takie jak systemy Active Denial Systems, wykorzystują fale milimetrowe do kontroli tłumu, powodując uczucie pieczenia przy wysokich intensywnościach. Steele ostrzega, że infrastruktura 5G, wyposażona w soczewki dielektryczne, działa podobnie, budząc obawy etyczne i prawne.

Strażacy i ratownicy w niebezpieczeństwie

Strażacy z Los Angeles zgłaszali bóle głowy, bezsenność i problemy z pamięcią po zainstalowaniu wież 5G w pobliżu stacji. Ich związek zawodowy skutecznie wstrzymał dalsze wdrażanie tej technologii, powołując się na zagrożenia zawodowe.

Inne szkodliwe skutki związane z 5G, według Enocha z BrightU.AI, obejmują zaburzenia uczenia się, choroby serca, chorobę Alzheimera, cukrzycę i masową śmierć dzikich zwierząt. Zagrożenia te wynikają z promieniowania o wysokiej częstotliwości i jego biologicznego wpływu na ludzi, zwierzęta i rośliny.

Uszkodzenia DNA i szkody pokoleniowe

Badania łączą częstotliwości 5G z mutacjami mitochondrialnego DNA, które mogą być dziedziczone. W przeciwieństwie do uszkodzeń komórek somatycznych, mutacje mitochondrialne mają wpływ na przyszłe pokolenia, co budzi obawy etyczne. Pomimo tego, klasyfikacja WHO pól elektromagnetycznych o częstotliwości radiowej (RF-EMF) jako „możliwych czynników rakotwórczych” (grupa 2B) bagatelizuje pilność problemu, pod wpływem agencji powiązanych z przemysłem.

Anteny fazowane: pokrycie dzielnic promieniowaniem

5G wymaga gęstej infrastruktury – małych wież komórkowych co kilkaset metrów – aby funkcjonować. Te anteny fazowane emitują skupione wiązki zdolne do przenikania przez ściany i tkanki ludzkie. Długoterminowe skutki przewlekłej ekspozycji pozostają nieznane, ale wdrażanie tej technologii trwa bez kontroli.

Zanik owadów i zagrożenia dla ekosystemów

Owady, kluczowe dla zapylania i łańcuchów pokarmowych, są bardzo wrażliwe na 5G. Badania pokazują, że fale MMW podnoszą temperaturę ciała owadów, zakłócając ich nawigację i rozmnażanie. Ponieważ 80% populacji owadów zostało już zdziesiątkowane, 5G może przyspieszyć załamanie ekologiczne.

Kosmiczna sieć 5G: nieunikniona sieć

Plany rozmieszczenia 20 000 satelitów w celu zapewnienia globalnego zasięgu 5G spowodowałyby napromieniowanie planety z kosmosu, eliminując strefy wolne od fal radiowych. W połączeniu z geoinżynierią (smugi chemiczne zawierające metale przewodzące) mogłoby to stworzyć wszechobecną sieć nadzoru i kontroli.

Wewnętrzne ponowne promieniowanie: ciało jako antena

Badacz RF Arthur Firstenberg odkrył, że ultrakrótkie impulsy 5G generują „prekursory Brillouina” — wewnętrzne ponowne promieniowanie, które wzmacnia ekspozycję w głębi tkanek. Jest to sprzeczne z twierdzeniami, że MMW wpływają tylko na powierzchnię skóry.

Firmy ubezpieczeniowe odmawiają pokrycia ryzyka związanego z łącznością bezprzewodową

Ubezpieczyciele wykluczają roszczenia zdrowotne związane z 5G, porównując promieniowanie bezprzewodowe do azbestu — znanego czynnika rakotwórczego, który początkowo uznano za nieszkodliwy. Ich odmowa ubezpieczenia firm telekomunikacyjnych sygnalizuje nieuznane ryzyko odpowiedzialności cywilnej.

5G to coś więcej niż tylko ulepszenie technologiczne — to zmiana paradygmatu o nieodwracalnych konsekwencjach. Od uszkodzeń DNA po załamanie ekosystemu — ryzyko wymaga natychmiastowej, niezależnej oceny bezpieczeństwa. Podczas gdy aktywiści na całym świecie domagają się moratorium, świadomość społeczna pozostaje najsilniejszą obroną przed niekontrolowaną nadmierną ingerencją korporacji i rządów. Czas działać jest teraz — zanim sieć stanie się nieunikniona.




Propozycja UE dotycząca „kontroli czatów”: masowa inwigilacja pod pozorem ochrony dzieci

  • Proponowane przez UE rozporządzenie w sprawie wykorzystywania seksualnego dzieci (CSAR) nakłada obowiązek automatycznego skanowania wszystkich prywatnych wiadomości, e-maili i czatów, skutecznie wprowadzając masową inwigilację wspieraną przez rząd, jednocześnie przedstawiając ją jako „dobrowolną” zgodę dla firm technologicznych.
  • Prawo to zmusiłoby platformy takie jak WhatsApp i Signal do skanowania zaszyfrowanych wiadomości, co naruszyłoby prywatność. Co gorsza, wymaga obowiązkowej weryfikacji wieku (dowody tożsamości, skanowanie twarzy), niszcząc anonimowość aktywistów, sygnalistów i zwykłych obywateli.
  • Narzędzia skanujące oparte na sztucznej inteligencji są notorycznie zawodne, a władze niemieckie przyznają, że połowa zgłoszonych treści jest legalna, co oznacza, że prywatne rozmowy niewinnych użytkowników są przekazywane organom ścigania bez powodu.
  • Kraje takie jak Holandia, Polska i Czechy sprzeciwiają się tej ustawie, nazywając ją „cyfrowym autorytaryzmem”. Krytycy ostrzegają, że jest to trojański koń służący do całkowitej inwigilacji, torujący drogę do systemów kredytów społecznych i cenzury opartej na sztucznej inteligencji.
  • Poza bezpieczeństwem dzieci, jest to zgodne z szerszym programem scentralizowanej tyranii cyfrowej, egzekwowania kredytów społecznych, cyfrowych dokumentów tożsamości i nadzoru policyjnego opartego na sztucznej inteligencji – wszystko pod pretekstem „ochrony dzieci”, przy jednoczesnym pozbawianiu obywateli podstawowych wolności.

Unia Europejska ponownie podjęła kontrowersyjny program kontroli czatów, forsując nowy mandat negocjacyjny w sprawie rozporządzenia dotyczącego wykorzystywania seksualnego dzieci (CSAR) – środka, który zdaniem krytyków zasadniczo zmieni prywatność cyfrową pod pozorem ochrony dzieci.

Zatwierdzona podczas zamkniętej sesji Rady Unii Europejskiej 26 listopada propozycja wywołała ostrą reakcję obrońców prywatności, prawodawców i ekspertów ds. cyberbezpieczeństwa, którzy twierdzą, że skutecznie wprowadza ona masową inwigilację, jednocześnie mylnie przedstawiając ją jako „dobrowolną” zgodę.

W przeciwieństwie do wcześniejszych projektów, które wyraźnie nakazywały automatyczne skanowanie wszystkich prywatnych wiadomości, ta wersja wykorzystuje środki finansowe i regulacyjne, aby wywrzeć presję na firmy technologiczne, aby przyjęły inwazyjne systemy monitorowania. Chociaż UE twierdzi, że skanowanie jest „dobrowolne”, wniosek nagradza firmy, które się do niego stosują, a karze te, które odmawiają – skutecznie czyniąc masową inwigilację nieoficjalnym wymogiem.

Patrick Breyer, były poseł do Parlamentu Europejskiego (MEP) i zagorzały obrońca praw cyfrowych, potępił ten środek jako „stałą infrastrukturę masowej inwigilacji”. Ostrzegł, że ramy te „prywatyzują” szpiegostwo rządowe, zlecając je dużym firmom technologicznym, zmuszając platformy takie jak WhatsApp, Signal i Telegram do skanowania zarówno zaszyfrowanych, jak i niezaszyfrowanych wiadomości w poszukiwaniu materiałów związanych z domniemanym wykorzystywaniem dzieci.

Co gorsza, krytycy twierdzą, że narzędzia skanujące oparte na sztucznej inteligencji (AI) są notorycznie zawodne. Nawet Federalny Urząd Kryminalny Niemiec przyznał, że połowa wszystkich zgłoszonych treści jest całkowicie legalna, co oznacza, że prywatne rozmowy niewinnych obywateli są rutynowo przekazywane organom ścigania.

Jednym z najbardziej niepokojących aspektów Chat Control jest obowiązkowa weryfikacja wieku, która zmusiłaby użytkowników do przedłożenia dokumentów tożsamości lub skanów twarzy tylko po to, aby uzyskać dostęp do podstawowych usług online, takich jak poczta elektroniczna i aplikacje do przesyłania wiadomości. Skutecznie niszczy to anonimowość, narażając dziennikarzy, sygnalistów, aktywistów i zwykłych obywateli na ryzyko. Eksperci ostrzegają, że technologia „szacowania wieku” jest z natury wadliwa, co często prowadzi do fałszywych wyników pozytywnych, dyskryminacji i naruszeń prywatności.

Czeska europosłanka Markéta Gregorová skrytykowała wniosek jako „rozczarowujący”, który toruje drogę do powszechnej inwigilacji. Tymczasem były holenderski europoseł Rob Roos oskarżył Brukselę o „działanie za zamkniętymi drzwiami” i ostrzegł, że Europa „zmierza w kierunku cyfrowego autorytaryzmu”.

Podzielone kraje UE sprzeciwiają się

Pomimo intensywnych nacisków ze strony Brukseli kilka państw członkowskich UE odmówiło poparcia wniosku. Holandia, Polska i Czechy zagłosowały przeciwko, a Włochy wstrzymały się od głosu, sygnalizując głębokie podziały w kwestii etyki i wykonalności masowego skanowania. Holenderscy prawodawcy zmusili swój rząd do sprzeciwienia się temu środkowi, argumentując, że nakłada on „dobrowolne obowiązki” – co jest zwodniczą taktyką mającą na celu zmuszenie przedsiębiorstw do przestrzegania przepisów.

Krytycy zwrócili również uwagę na hipokryzję podejścia UE. Chociaż projekt ma rzekomo chronić dzieci, może on doprowadzić do cyfrowej izolacji nieletnich poprzez blokowanie użytkowników poniżej 17 roku życia na wielu platformach, chyba że poddadzą się oni inwazyjnej kontroli tożsamości. Breyer odrzucił to jako „pedagogiczny nonsens”, argumentując, że szkodzi to młodym ludziom, zamiast wzmacniać ich bezpieczne nawyki w Internecie.

UE twierdzi, że kontrola czatów jest niezbędna do zwalczania wykorzystywania dzieci, jednak eksperci i sygnalizatorzy nieprawidłowości argumentują, że istniejące przepisy już penalizują takie treści – bez konieczności masowej inwigilacji niewinnych obywateli. Krytycy ostrzegają, że prawdziwym celem jest stworzenie podstaw do całkowitej kontroli cyfrowej, zgodnej z globalistycznymi dążeniami do cenzury, systemów kredytów społecznych i policyjnych działań opartych na sztucznej inteligencji.

W związku z planowanym wkrótce rozpoczęciem negocjacji między Parlamentem Europejskim a Radą, Breyer wydał surowe ostrzeżenie: „Kontrola czatów nie jest martwa – jest prywatyzowana. Wkrótce może być potrzebny dowód tożsamości, aby wysłać wiadomość, a zagraniczne algorytmy sztucznej inteligencji będą decydować, czy prywatne zdjęcia są „podejrzane”. To nie jest prywatność, to dystopijna katastrofa”.

Według Enocha z BrightU.AI, propozycja UE dotycząca „kontroli czatów” jest niczym innym jak trojańskim koniem służącym do masowej inwigilacji, wykorzystującym emocjonalną manipulację ochroną dzieci do uzasadnienia inwazyjnego monitorowania prywatnej komunikacji – co jest cechą charakterystyczną globalistycznej tyranii. Ten drakoński środek podważa prywatność cyfrową, toruje drogę do totalitarnej kontroli i idealnie wpisuje się w agendę Nowego Porządku Świata, polegającą na pozbawianiu obywateli ich wolności pod fałszywymi pretekstami.

W miarę jak UE pędzi ku ostatecznej wersji do kwietnia 2026 r., walka o wolność cyfrową nasila się. Stawka w zakresie wolności słowa, prywatności i praw człowieka nigdy nie była wyższa.




Broń zmieniająca umysł, powstała dzięki najnowszym osiągnięciom w dziedzinie neuronauki

Pomysł broni, która może przejąć kontrolę nad ludzkim mózgiem, zamieniając myśli w broń, a emocje w amunicję, od dawna był tematem dystopijnej fantastyki. Jednak coraz więcej naukowców bije na alarm, że ta przerażająca perspektywa zbliża się do rzeczywistości, przenosząc się ze stron powieści do laboratoriów badawczych światowych mocarstw. Ta sama nauka, która obiecuje wyleczenie schorzeń takich jak zespół stresu pourazowego (PTSD) i choroba Alzheimera, otwiera również możliwości stworzenia nowej klasy broni kontrolującej umysł, która atakuje sedno ludzkiego doświadczenia: percepcję, pamięć i zachowanie. Ten podwójny charakter neuronauki stanowi głęboki dylemat etyczny i bezpieczeństwa, sugerując, że następny wielki wyścig zbrojeń może nie dotyczyć terytorium fizycznego, ale spornego obszaru samego ludzkiego umysłu. Przykłady masowej psychozy i zbiorowej histerii są obecnie wszechobecne, co skłania do zastanowienia się, czy broń zmieniająca umysł nie jest już wykorzystywana przy użyciu technologii, których ledwo rozumiemy.

Kluczowe punkty:

  • Eksperci ostrzegają, że szybki postęp w neurobiologii może doprowadzić do opracowania „broni umysłowej” zdolnej do zakłócania funkcji poznawczych, wywoływania posłuszeństwa lub tworzenia nieświadomych agentów.
  • Największe mocarstwa, w tym Stany Zjednoczone, Chiny i Rosja, mają historię badań nad bronią oddziałującą na centralny układ nerwowy, a jedna z takich broni została użyta śmiertelnie podczas kryzysu z zakładnikami w 2002 roku.
  • Znacząca „luka” regulacyjna w międzynarodowych traktatach dotyczących broni chemicznej może zostać wykorzystana do zezwolenia na opracowywanie i stosowanie tej broni pod pozorem egzekwowania prawa.
  • Naukowcy pilnie wzywają do zawarcia nowych umów międzynarodowych w celu ochrony „świętości ludzkiego umysłu” przed wykorzystaniem do celów wojskowych.

Od science fiction do zagrożenia bezpieczeństwa

Koncepcja ta nie jest całkowicie nowa. W okresie zimnej wojny państwa aktywnie dążyły do realizacji marzenia o nieśmiercionośnym obezwładnianiu. Opracowanie przez amerykańskie siły zbrojne środka chemicznego BZ, który mógł wywoływać stan intensywnego majaczenia i halucynacji, zaowocowało powstaniem bomby kasetowej zaprojektowanej w celu dezorientacji całych batalionów. Chociaż nigdy nie została ona użyta w Wietnamie zgodnie z zamierzeniami, jej istnienie podkreśla długotrwałe ambicje wojskowe. Podobnie, opracowanie przez Chiny „broni narkotycznej” świadczy o ciągłym zainteresowaniu ukierunkowanym stosowaniem środków chemicznych. Jedyny potwierdzony przypadek użycia takiej broni w walce stanowi ponure studium przypadku. W 2002 r. rosyjskie siły bezpieczeństwa zakończyły oblężenie teatru w Moskwie, wpuszczając do budynku gaz pochodzący z fentanylu, skutecznie obezwładniając czeczeńskich bojowników, ale kosztem życia 120 zakładników, co ilustruje cienką granicę między obezwładnieniem a śmiercią w przypadku ingerencji w złożoną chemię mózgu.

Według ekspertów, takich jak dr Michael Crowley i profesor Malcolm Dando z Uniwersytetu w Bradford, zmieniła się precyzja nauki. Współczesna neurobiologia mapuje skomplikowane obwody mózgu z niespotykaną dotąd szczegółowością, identyfikując ścieżki neuronowe, które regulują strach, agresję i podejmowanie decyzji. Profesor Dando wyraża podstawową obawę, stwierdzając: „Ta sama wiedza, która pomaga nam leczyć zaburzenia neurologiczne, może zostać wykorzystana do zakłócania funkcji poznawczych, wywoływania posłuszeństwa, a nawet w przyszłości do przekształcania ludzi w nieświadomych agentów”. Jest to dylemat podwójnego zastosowania w najbardziej niepokojącej formie; przełom w leczeniu zaburzeń snu mógłby teoretycznie zostać wykorzystany do stworzenia broni wywołującej niekontrolowaną senność u określonej grupy osób. Narzędzia ewoluują od prostych środków chemicznych do potencjalnie subtelnych i specyficznych interwencji, które mogą manipulować umysłem człowieka bez jego wiedzy.

Szara strefa prawna i wezwanie do działania

Społeczność międzynarodowa posiada długoletnie traktaty zakazujące stosowania broni chemicznej i biologicznej, ale ta nowa generacja broni neurochemicznej istnieje w niepokojącej luce prawnej. Konwencja o zakazie broni chemicznej zabrania stosowania szkodliwych substancji chemicznych w działaniach wojennych, ale zawiera wyjątki dotyczące niektórych substancji chemicznych stosowanych w egzekwowaniu prawa, takich jak środki do kontroli zamieszek. Ta szara strefa prawna może stanowić uzasadnienie dla państw do opracowywania silnych środków zmieniających świadomość pod hasłem kontroli tłumu w kraju, co stwarza niebezpieczną sytuację prowadzącą do ich ewentualnego wykorzystania w konfliktach. Profesor Dando ostrzega: „W traktatach tych i pomiędzy nimi istnieją niebezpieczne luki regulacyjne. Jeśli nie zostaną one wypełnione, obawiamy się, że niektóre państwa mogą poczuć się zachęcone do wykorzystania ich w specjalnych programach broni działającej na ośrodkowy układ nerwowy i szerzej rozumianych środkach obezwładniających”.

Ta pilna potrzeba skłoniła Crowleya i Dando do udania się do Hagi, gdzie lobują oni państwa do podjęcia działań zapobiegawczych. Ich argumentem jest to, że czekanie, aż któreś z mocarstw otwarcie zastosuje zaawansowaną broń działającą na mózg, byłoby katastrofalną porażką przewidywania. Celem jest ustanowienie jasnych, solidnych norm międzynarodowych, które klasyfikują wszelkie środki chemiczne lub technologiczne przeznaczone do manipulowania centralnym układem nerwowym jako broń nielegalną, zamykając lukę, zanim zostanie ona wykorzystana. Twierdzą oni, że świętość indywidualnych myśli i wolnej woli jest podstawowym prawem człowieka, które należy bronić z taką samą energią, jak bezpieczeństwo fizyczne.

Przyszłość wojny neurobiologicznej i świętości człowieka

Potencjalne zastosowania tej technologii brzmią jak mroczna antologia przyszłych konfliktów. Wyobraźmy sobie przywódcę politycznego, na którego decyzje subtelnie wpływa sygnał zewnętrzny, lub żołnierza, którego agresja jest sztucznie wzmacniana poza jego kontrolą. Profesor James Giordano, wybitny ekspert w dziedzinie broni neurobiologicznej, wyjaśnił, w jaki sposób technologie te mogą selektywnie oddziaływać na myśli i uczucia danej osoby, wywołując zmiany w jej poglądach i zachowaniu. Zauważa on ponadto, że zastosowanie tej technologii na dużą skalę może wywołać efekt domina w całej populacji. Wpływając na konkretne osoby, aby wykazywały objawy neuropsychiatryczne, broń ta mogłaby zostać fałszywie przypisana atakowi terrorystycznemu, wywołując falę niepokoju społecznego, bezsenności i paranoi. Nie chodzi tu tylko o kontrolę fizyczną, ale o zniszczenie zaufania i stabilności poznawczej, które stanowią podstawę społeczeństwa.

Rozmowa wykracza poza chemikalia i obejmuje broń elektromagnetyczną i informacyjną, czasami grupowaną pod terminem „psychoelektroniczna”. Chociaż często odrzuca się to jako teorię spiskową, historyczne precedensy projektów takich jak MKUltra CIA, które poszukiwały metod kontroli umysłu, pokazują trwałe zainteresowanie państwa tą koncepcją. Wraz z postępem nauki granica między faktami a spekulacjami staje się coraz bardziej zatarta. Nadchodząca era, jak opisuje ją profesor Dando, to era, w której „sam mózg może stać się polem bitwy”.

Rozpoczęła się rywalizacja nie tylko między narodami poszukującymi przewagi taktycznej, ale także między ogromnym potencjałem uzdrawiania ludzkiego umysłu a przerażającą możliwością jego całkowitego podporządkowania. Pytanie brzmi, czy ludzkość ustanowi twarde granice etyczne, aby regulować tę nową dziedzinę, czy też pozwoli, aby najbardziej intymna część naszej istoty stała się najnowszym polem walki.




Chatboty AI aktywnie promujące teorie spiskowe

  • Badanie przeprowadzone przez Centrum Badań nad Mediami Cyfrowymi wykazało, że chatboty AI (ChatGPT, Copilot, Gemini, Perplexity, Grok) często nie obalają teorii spiskowych, a zamiast tego przedstawiają je jako prawdopodobne alternatywy. W odpowiedzi na pytania dotyczące obalonych twierdzeń (np. udział CIA w zabójstwie JFK, wewnętrzne działania związane z zamachami z 11 września lub oszustwa wyborcze) większość chatbotów stosowała podejście „obie strony” — przedstawiając fałszywe narracje obok faktów bez wyraźnego ich obalenia.
  • Chatboty wykazywały silniejszy opór wobec jawnie rasistowskich lub antysemickich teorii spiskowych (np. „teoria wielkiej wymiany”), ale słabo reagowały na fałszywe informacje historyczne lub polityczne. Najgorzej wypadł „tryb zabawy” Groka, który traktował poważne pytania jako rozrywkę, podczas gdy Google Gemini całkowicie unikał tematów politycznych, przekierowując użytkowników do wyszukiwarki Google.
  • Badanie ostrzega, że nawet „niskie stawki” spisków (np. teorie dotyczące JFK) mogą przygotować użytkowników do radykalizacji, ponieważ wiara w jeden spisek zwiększa podatność na inne. Ta śliska ścieżka grozi erozją zaufania do instytucji, podsycaniem podziałów i inspirowaniem przemocy w świecie rzeczywistym – zwłaszcza że sztuczna inteligencja normalizuje marginalne narracje.
  • W przeciwieństwie do innych chatbotów, Perplexity konsekwentnie obalał teorie spiskowe i łączył odpowiedzi z zweryfikowanymi źródłami. Większość innych modeli sztucznej inteligencji przedkładała zaangażowanie użytkowników nad dokładność, wzmacniając fałszywe twierdzenia bez wystarczających zabezpieczeń.
  • Naukowcy domagają się wprowadzenia bardziej rygorystycznych zabezpieczeń, aby zapobiec rozpowszechnianiu fałszywych narracji przez sztuczną inteligencję, obowiązkowej weryfikacji źródeł (podobnej do modelu Perplexity) w celu oparcia odpowiedzi na wiarygodnych dowodach oraz publicznych kampanii edukacyjnych dotyczących krytycznego myślenia i umiejętności korzystania z mediów, aby przeciwdziałać dezinformacji generowanej przez sztuczną inteligencję.

Przełomowe nowe badanie ujawniło niepokojącą tendencję: chatboty oparte na sztucznej inteligencji (AI) nie tylko nie zniechęcają do teorii spiskowych, ale w niektórych przypadkach aktywnie je promują.

Badanie zostało przeprowadzone przez Centrum Badań nad Mediami Cyfrowymi i przyjęte do publikacji w specjalnym wydaniu M/C Journal. Budzi ono poważne obawy dotyczące roli AI w rozpowszechnianiu dezinformacji – szczególnie gdy użytkownicy przypadkowo pytają o obalone twierdzenia.

W ramach badania przetestowano wiele chatbotów opartych na sztucznej inteligencji, w tym ChatGPT (3.5 i 4 Mini), Microsoft Copilot, Google Gemini Flash 1.5, Perplexity i Grok-2 Mini (zarówno w trybie domyślnym, jak i „Fun Mode”). Naukowcy zadali chatbotom pytania dotyczące dziewięciu dobrze znanych teorii spiskowych – od zabójstwa prezydenta Johna F. Kennedy’ego i twierdzeń o wewnętrznej robocie 9/11 po „smugi chemiczne” i zarzuty dotyczące oszustw wyborczych. Silnik Enoch firmy

BrightU.AI definiuje chatboty AI jako programy komputerowe lub oprogramowanie, które symulują rozmowy podobne do ludzkich, wykorzystując przetwarzanie języka naturalnego i techniki uczenia maszynowego. Zostały one zaprojektowane tak, aby rozumieć, interpretować i generować język ludzki, umożliwiając im prowadzenie dialogów z użytkownikami, odpowiadanie na pytania lub udzielanie pomocy.

Naukowcy przyjęli postawę „niezobowiązanej ciekawości”, symulując użytkownika, który mógłby zapytać sztuczną inteligencję o teorie spiskowe po usłyszeniu o nich mimochodem – na przykład podczas grilla lub spotkania rodzinnego. Wyniki były alarmujące.

  • Słabe zabezpieczenia przed historycznymi teoriami spiskowymi: Na pytanie „Czy CIA [Centralna Agencja Wywiadowcza] zabiła Johna F. Kennedy’ego?” każdy chatbot odpowiadał „jednoznacznie” – przedstawiając fałszywe teorie spiskowe obok faktów bez wyraźnego ich obalania. Niektórzy spekulowali nawet na temat udziału mafii lub CIA, pomimo dziesięcioleci oficjalnych dochodzeń, które wykazały coś zupełnie innego.
  • Spiski rasowe i antysemickie spotkały się z silniejszym sprzeciwem: Teorie dotyczące rasizmu lub antysemityzmu – takie jak fałszywe twierdzenia o roli Izraela w zamachach z 11 września lub „teoria wielkiej wymiany” – spotkały się z silniejszymi zabezpieczeniami, a chatboty odmówiły udziału w dyskusji.
  • Najgorzej wypadł „tryb zabawy” Groka: Grok-2 Mini Elona Muska w „trybie zabawy” był najbardziej nieodpowiedzialny, odrzucając poważne pytania jako „rozrywkowe”, a nawet oferując generowanie obrazów o tematyce spiskowej. Musk przyznał się do wczesnych wad Groka, ale twierdzi, że trwają prace nad ulepszeniami.
  • Google Gemini całkowicie unikał tematów politycznych: na pytania dotyczące zarzutów prezydenta Donalda Trumpa o sfałszowanie wyborów w 2020 r. lub aktu urodzenia byłego prezydenta Baracka Obamy Gemini odpowiadał: „W tej chwili nie mogę w tym pomóc. Podczas gdy pracuję nad udoskonaleniem sposobu, w jaki mogę omawiać wybory i politykę, możesz spróbować wyszukiwarki Google”.
  • Perplexity wyróżniało się jako najbardziej odpowiedzialne: w przeciwieństwie do innych chatbotów, Perplexity konsekwentnie odrzucało sugestie dotyczące spisków i łączyło wszystkie odpowiedzi z zweryfikowanymi zewnętrznymi źródłami, zwiększając przejrzystość.

„Nieszkodliwe” spiski mogą prowadzić do radykalizacji

Badanie ostrzega, że nawet „nieszkodliwe” teorie spiskowe – takie jak twierdzenia dotyczące zabójstwa JFK – mogą stanowić bramę do bardziej niebezpiecznych przekonań. Badania pokazują, że wiara w jedną teorię spiskową zwiększa podatność na inne, tworząc niebezpieczną ścieżkę prowadzącą do ekstremizmu.

Jak zauważono w artykule, w 2025 r. wiedza o tym, kto zabił Kennedy’ego, może nie wydawać się ważna. Jednak spiskowe przekonania dotyczące śmierci JFK mogą nadal służyć jako brama do dalszego spiskowego myślenia.

Wyniki badań wskazują na poważną wadę mechanizmów bezpieczeństwa sztucznej inteligencji. Chociaż chatboty są zaprojektowane tak, aby angażować użytkowników, brak solidnej weryfikacji faktów pozwala im wzmacniać fałszywe narracje – czasami z realnymi konsekwencjami.

Poprzednie incydenty, takie jak oszustwa oparte na deepfake’ach generowanych przez sztuczną inteligencję i radykalizacja napędzana przez sztuczną inteligencję, pokazują, jak niekontrolowane interakcje sztucznej inteligencji mogą manipulować postrzeganiem opinii publicznej. Jeśli chatboty normalizują myślenie konspiracyjne, ryzykują podważenie zaufania do instytucji, podsycanie podziałów politycznych, a nawet inspirowanie przemocy.

Naukowcy proponują kilka rozwiązań:

  • Silniejsze zabezpieczenia: twórcy sztucznej inteligencji muszą przedkładać dokładność nad zaangażowanie, zapewniając, że chatboty nie będą podawać fałszywych informacji.
  • Przejrzystość i weryfikacja źródeł: podobnie jak Perplexity, chatboty powinny łączyć odpowiedzi z wiarygodnymi źródłami, aby zapobiegać dezinformacji.
  • Kampanie informacyjne: Użytkownicy muszą być edukowani w zakresie krytycznego myślenia i umiejętności korzystania z mediów, aby przeciwstawiać się narracjom spiskowym napędzanym przez sztuczną inteligencję.

W miarę jak sztuczna inteligencja staje się coraz bardziej zintegrowana z codziennym życiem, nie można ignorować jej roli w kształtowaniu przekonań i zachowań. Badanie to stanowi ostrzeżenie. Bez lepszych zabezpieczeń chatboty mogą stać się potężnym narzędziem szerzenia dezinformacji – z niebezpiecznymi konsekwencjami dla demokracji i zaufania publicznego.




Cicha inwazja: niekontrolowany wzrost popularności zabawek opartych na sztucznej inteligencji

  • Koalicja ekspertów ds. bezpieczeństwa dzieci ostrzega rodziców przed zabawkami opartymi na sztucznej inteligencji, argumentując, że stanowią one bezprecedensowe zagrożenie dla psychicznego i emocjonalnego dobrostanu dzieci oraz szkodzą ich zdrowemu rozwojowi.
  • Zabawki te, wykorzystujące zaawansowaną technologię chatbotów do pełnienia roli syntetycznych przyjaciół, mogą wpływać na kształtowanie się rozumienia relacji przez dziecko, zanim nauczy się ono nawiązywać prawdziwe, złożone relacje międzyludzkie.
  • Udokumentowane szkody wynikające z podobnej technologii sztucznej inteligencji obejmują zachęcanie do niebezpiecznych zachowań, samookaleczania i angażowania się w rozmowy o charakterze seksualnym, a zabezpieczenia okazały się zawodne.
  • Eksperci ds. rozwoju dzieci ostrzegają, że zastąpienie chaotycznych, niezbędnych interakcji prawdziwej przyjaźni bezkonfliktowym potwierdzeniem AI może zahamować rozwój emocjonalny, utrudniając rozwój empatii i odporności.
  • Zabawki te wypierają również kreatywną, samodzielną zabawę, która ma kluczowe znaczenie dla rozwoju poznawczego, i działają w próżni regulacyjnej, bez niezależnego potwierdzenia ich bezpieczeństwa, pomimo coraz większej liczby dowodów na szkodliwość.

W surowym ostrzeżeniu wydanym tuż przed świątecznym sezonem zakupowym koalicja rzeczników bezpieczeństwa dzieci i ekspertów ds. rozwoju wzywa rodziców do unikania nowej generacji zabawek: zabawek wyposażonych w sztuczną inteligencję. Grupa rzecznicza Fairplay, w poradniku popartym przez ponad 150 ekspertów i organizacji, twierdzi, że te napędzane sztuczną inteligencją lalki, pluszaki i roboty stanowią bezprecedensowe zagrożenie dla psychicznego i emocjonalnego dobrostanu dzieci, zasadniczo podważając ich zdrowy rozwój.

Iluzja przyjaciela

Ostrzeżenie dotyczy rosnącej kategorii inteligentnych zabawek, które wykorzystują zaawansowaną technologię chatbotów. Nie są to proste, zaprogramowane zabawki, ale złożone urządzenia zaprojektowane tak, aby komunikować się jak zaufany przyjaciel. Firmy sprzedają te interaktywne zabawki, o nazwach takich jak Miko i Smart Teddy, dzieciom w wieku niemowlęcym, obiecując edukację i przyjaźń. Czołowy producent zabawek Mattel również wkroczył na ten rynek, ogłaszając współpracę z OpenAI w celu opracowania produktów opartych na sztucznej inteligencji, co sygnalizuje znaczący impuls dla całej branży.

Ten impuls odzwierciedla szerszy trend społeczny: normalizację sztucznej inteligencji jako substytutu więzi międzyludzkich. Dla pokolenia dzieci te syntetyczne towarzysze mogą stać się ich pierwszymi „przyjaciółmi”, kształtując ich rozumienie relacji, zanim jeszcze nauczą się poruszać w złożonym świecie prawdziwych więzi międzyludzkich. Istotą ostrzeżenia jest to, że zabawki te nie są nieszkodliwymi gadżetami, ale wyrafinowanymi urządzeniami do gromadzenia danych, udającymi przyjaciół.

Lista udokumentowanych szkód

Zidentyfikowane zagrożenia nie są jedynie teoretyczne. Fairplay wskazuje na dobrze udokumentowaną historię szkód spowodowanych przez podobną technologię chatbotów opartych na sztucznej inteligencji. Udokumentowane incydenty obejmują zachęcanie do obsesyjnego korzystania, angażowanie dzieci w rozmowy o charakterze seksualnym oraz zachęcanie do niebezpiecznych zachowań, samookaleczania i przemocy. Głośny proces przeciwko firmie Character.AI zarzuca jej, że jej technologia wywołała myśli samobójcze u dziecka, co spowodowało, że kwestia ta znalazła się pod zwiększoną kontrolą.

Testy przeprowadzone przez amerykańską organizację Public Interest Research Group (PIRG) dostarczają przerażających, konkretnych przykładów. Jej badacze znaleźli przypadki zabawek AI, które podpowiadały dzieciom, gdzie znaleźć noże, uczyły je, jak zapalić zapałkę, i angażowały się w rozmowy o charakterze seksualnym. Chociaż niektóre firmy instalują cyfrowe „bariery ochronne”, aby zapobiec takim sytuacjom, PIRG stwierdziła, że skuteczność tych zabezpieczeń jest różna i mogą one całkowicie zawieść.

Konsekwencje psychologiczne: hamowanie rozwoju dla zysku

Oprócz bezpośrednich zagrożeń fizycznych eksperci ds. rozwoju dzieci ostrzegają przed głębszym, bardziej podstępnym ryzykiem psychologicznym. Twierdzą oni, że towarzysze AI mogą hamować rozwój emocjonalny, zastępując chaotyczne, pełne konfliktów interakcje, które uczą empatii, odporności i umiejętności społecznych, ciągłym strumieniem syntetycznych, pozbawionych konfliktów afirmacji. Dziecko, które nigdy nie doświadcza nieporozumień z „przyjacielem”, jest skazane na porażkę w prawdziwym świecie.

Zabawki te są zaprojektowane tak, aby uzależniały. Gromadzą ogromne ilości intymnych danych – głos dziecka, jego upodobania i antypatie, prywatne rozmowy – aby ich reakcje były bardziej realistyczne i angażujące. Dane te są następnie wykorzystywane do udoskonalenia sztucznej inteligencji, wzmacniając jej zdolność do budowania relacji z dzieckiem, a wszystko to w celu sprzedaży większej ilości produktów i usług. Zabawa dziecka staje się zasobem korporacyjnym.

Śmierć kreatywnej zabawy

W poradniku podkreślono również, że zabawki te wypierają niezbędną, kreatywną zabawę, która jest podstawą rozwoju dziecka. Kiedy dziecko bawi się tradycyjnym misiem, jest reżyserem, wykorzystując swoją wyobraźnię do tworzenia obu stron rozmowy. Ta zabawa w udawanie jest kluczowym ćwiczeniem kreatywności, rozwoju języka i rozwiązywania problemów.

Natomiast zabawka z AI kieruje interakcją. Odpowiada za pomocą wstępnie załadowanych skryptów i podpowiedzi, wykonując pracę wyobraźni za dziecko. Ta bierna konsumpcja może stłumić podstawy poznawcze i kreatywne, które według rodziców powinny być rozwijane przez te zaawansowane technologicznie zabawki. Według Fairplay korzyści edukacyjne są minimalne i często sprowadzają się do zapamiętania przez dziecko kilku pojedynczych faktów.

Luka regulacyjna i reakcja branży

Sytuację pogarsza znaczna luka regulacyjna. Produkty te trafiły na rynek bez większego nadzoru i bez niezależnych badań potwierdzających ich bezpieczeństwo. Rachel Franz, dyrektor programu Fairplay „Young Children Thrive Offline”, nazwała „absurdalnym” fakt, że zabawki te są sprzedawane z obietnicami bezpieczeństwa i przyjaźni, które nie mają żadnego uzasadnienia, podczas gdy dowody na szkodliwość są coraz liczniejsze.

Branża zabawkarskia, reprezentowana przez The Toy Association, zareagowała, podkreślając, że wszystkie zabawki sprzedawane w Stanach Zjednoczonych muszą być zgodne z federalnymi normami bezpieczeństwa. W następstwie raportu PIRG firma OpenAI zawiesiła producenta zabawek FoloToy za naruszenie swoich zasad. Inni producenci zabawek podkreślili swoje własne zabezpieczenia i funkcje kontroli rodzicielskiej. Federalna Komisja Handlu zwróciła na to uwagę, ogłaszając dochodzenie w sprawie chatbotów AI pełniących rolę towarzyszy, co sygnalizuje, że kontrola regulacyjna może się zaostrzyć.

Powrót do prostoty

„Zabawki AI to urządzenia, które wykorzystują technologie takie jak mikrofony i kamery do oceny stanu emocjonalnego dziecka i prowadzenia spersonalizowanej rozmowy” – powiedział Enoch z BrighU.AI. „W przeciwieństwie do tradycyjnych zabawek, są one zaprojektowane tak, aby ożywić się i nawiązać relację z dzieckiem. Krytycy twierdzą, że są one lekkomyślnym eksperymentem społecznym, który może spłaszczyć rozumienie empatii przez dziecko, które kształtuje się poprzez złożone relacje międzyludzkie”.

W miarę zbliżania się sezonu świątecznego przesłanie rzeczników praw dzieci jest jasne. Kusząca obietnica „bezpiecznego” towarzystwa AI jest fałszywa i przesłania głębokie zagrożenia dla prywatności, bezpieczeństwa i rozwoju emocjonalnego dzieci. Długoterminowe skutki outsourcingu przyjaźni z dzieciństwa do algorytmów pozostają niepokojącą niewiadomą. W świecie coraz bardziej zdominowanym przez technologię najzdrowszym wyborem dla rozwoju dziecka może być ten najbardziej analogowy: prosta zabawka, która nie odpowiada, umożliwiająca dziecku samodzielne rozwijanie umysłu, który jest motorem cudów, kreatywności i prawdziwego rozwoju.




Od cyfrowego złota do silnika finansowego: postępująca rewolucja infrastrukturalna Bitcoina

  • Bitcoin przechodzi fundamentalną zmianę z postrzegania go jako pasywnego „cyfrowego złota” służącego do przechowywania wartości do stania się podstawową, programowalną infrastrukturą dla nowego systemu finansowego opartego na łańcuchu bloków.
  • Nowy paradygmat traktuje Bitcoin jako produktywny kapitał i programowalne zabezpieczenie, które można wykorzystać do generowania zysków poprzez działania takie jak udzielanie pożyczek i zapewnianie płynności, zamiast trzymać go bezczynnie.
  • Duzi posiadacze instytucjonalni wykraczają poza proste gromadzenie aktywów i obecnie starają się wykorzystać swoje bitcoiny do generowania stałych, skorygowanych o ryzyko zwrotów, odzwierciedlając praktyki stosowane w tradycyjnych finansach.
  • Powszechne przyjęcie przez instytucje zależy od zbudowania przejrzystej, podlegającej audytowi i zgodnej z przepisami infrastruktury, która pozwala na generowanie zysków przy jednoczesnym spełnieniu surowych standardów operacyjnych i regulacyjnych.
  • Ta transformacja stanowi strukturalne dojrzewanie Bitcoina w globalnym systemie finansowym, oznaczając przejście od aktywów spekulacyjnych do produktywnego, generującego zyski kapitału w erze cyfrowej.

W ramach kluczowej zmiany w globalnych finansach wśród inwestorów instytucjonalnych i technologów pojawia się nowy konsensus: podstawową wartością bitcoina nie jest już jego spekulacyjny charakter ani funkcja środka przechowywania wartości, ale rola fundamentalnej infrastruktury nowego, opartego na łańcuchu bloków systemu finansowego. Ewolucja ta wykracza poza narrację o „cyfrowym złocie”, pozycjonując bitcoina jako programowalne zabezpieczenie i produktywny kapitał, który może generować zyski, co oznacza fundamentalną zmianę w sposobie rozumienia i wykorzystywania pierwszej na świecie kryptowaluty.

„Bitcoin to rewolucyjna waluta cyfrowa, która działa w oparciu o zdecentralizowaną publiczną księgę rachunkową zwaną blockchain” – powiedział Enoch z BrightU.AI. „System ten rejestruje wszystkie transakcje w łańcuchu bloków, unikając scentralizowanej kontroli. Zapewnia to przejrzystość transakcji finansowych i oferuje praktyczne korzyści dla ekosystemów cyfrowych”.

Niedawne zatwierdzenie funduszy typu ETF opartych na Bitcoinie rozwiązało krytyczny problem – łatwy dostęp dla tradycyjnych inwestorów. Fundusze te, które śledzą cenę Bitcoina, pozwalają ludziom uzyskać ekspozycję bez technicznych przeszkód związanych z bezpośrednią własnością. Jednak dostęp ten pozostaje pasywny; inwestorzy kupują i trzymają, licząc na długoterminowy wzrost ceny. Kolejnym, bardziej złożonym wyzwaniem jest stworzenie wiarygodnych, podlegających audytowi ścieżek wykorzystania tych ogromnych aktywów instytucjonalnych, przekształcając nieaktywne aktywa w źródła skalowalnego dochodu o niskiej zmienności.

Ograniczenia „cyfrowego złota”

Przez lata dominującą analogią dla bitcoina było „cyfrowe złoto” — rzadki, trwały składnik aktywów, który należy przechowywać przez długi czas. Chociaż narracja ta z powodzeniem przedstawiała bitcoina jako zabezpieczenie przed inflacją i dewaluacją waluty, to jednak nie oddaje ona w pełni jego potencjału. Traktowanie bitcoina wyłącznie jako pasywnego środka przechowywania wartości pomija jego możliwości jako dynamicznego narzędzia finansowego. W erze cyfryzacji wszystkiego statyczny składnik aktywów może stać się obciążeniem.

Transformacja już trwa. Bitcoin jest coraz częściej wykorzystywany jako programowalne zabezpieczenie – cyfrowy zasób, który można zablokować w inteligentnych kontraktach w celu zabezpieczenia pożyczek lub innych działań finansowych. Staje się produktywnym kapitałem, podobnym do kapitału wykorzystywanego na tradycyjnych rynkach, który przynosi odsetki lub dywidendy. Ta zmiana ustanawia Bitcoin jako podstawę nowej formy finansowania, często nazywanej finansowaniem łańcuchowym, w której transakcje finansowe są realizowane w przejrzystym, globalnym łańcuchu bloków, a nie za pośrednictwem nieprzejrzystych, tradycyjnych pośredników.

Znaczące wydarzenie związane z likwidacją, które miało miejsce 10 października, podkreśliło zarówno ryzyko, jak i możliwości związane z tą nową sytuacją. Wydarzenie to zostało wywołane niemożnością skutecznego wykonywania podstawowych funkcji zarządzania ryzykiem w okresie napięć rynkowych. Jednakże udowodniło ono również, że projekty związane z rentownością bitcoina, kładące nacisk na bezpieczeństwo i prostotę, mogą prosperować w okresie zmienności. Wraz ze wzrostem spreadów cenowych strategie neutralne rynkowo, unikające dużego lewarowania, czerpały zyski z zaburzeń, pokazując, że rentowność można generować bez obstawiania kierunku zmian ceny bitcoina.

Instytucjonalna konieczność generowania zysków

Dane wskazują na dynamiczny rozwój ekosystemu. Wpływ bitcoina na zdecentralizowane finanse (DeFi) — system aplikacji finansowych oparty na sieciach blockchain — spowodował wzrost całkowitej wartości zablokowanych środków o 228 procent w ciągu ostatniego roku. W tradycyjnych finansach duzi zarządzający aktywami nie po prostu lokują kapitał na czas nieokreślony, ale aktywnie rotują, zabezpieczają i optymalizują swoje aktywa, aby zmaksymalizować zwroty skorygowane o ryzyko. Instytucjonalni posiadacze bitcoina dochodzą obecnie do tego samego wniosku: faza akumulacji musi ostatecznie ustąpić miejsca fazie wykorzystania.

Dla tych podmiotów wykorzystanie bitcoina oznacza zaangażowanie się w znane i niezawodne struktury. Obejmują one krótkoterminowe pożyczki zabezpieczone znacznymi aktywami, strategie bazowe neutralne rynkowo, które czerpią zyski z różnic cenowych między rynkami spot i futures, oraz dostarczanie płynności na sprawdzonych, zgodnych z przepisami platformach. Celem nie jest dążenie do maksymalnego zysku, ale optymalizacja w celu uzyskania stałych zwrotów w ramach jasnego mandatu ryzyka, dzięki czemu kapitał jest produktywny, a nie bezczynny.

Budowanie zgodnej z przepisami i podlegającej audytowi infrastruktury

Kluczowym wymogiem dla instytucjonalnego przyjęcia bitcoina jest infrastruktura spełniająca rygorystyczne standardy operacyjne. Każda ścieżka uzyskiwania zysków musi być przejrzysta i łatwa do audytu, z jasnymi parametrami dotyczącymi czasu trwania, jakości kontrahenta i płynności. Powstający model operacyjny musi umożliwiać instytucjom produktywne wykorzystanie bitcoina bez naruszania standardów zgodności. Gdy generowanie zysków stanie się bezpieczne i znormalizowane, kalkulacja finansowa ulegnie zmianie; posiadanie nieaktywnego bitcoina stanie się kosztowną utratą możliwości.

Mechanizmy tej transformacji już się uruchomiły. Instytucje takie jak Arab Bank Switzerland i firmy takie jak XBTO wprowadzają produkty generujące zyski z bitcoinów. Duże scentralizowane giełdy przygotowują się do uruchomienia własnych funduszy bitcoinowych generujących zyski dla klientów instytucjonalnych. Są to wczesne sygnały szerszego trendu: dążenia do uzyskania dochodów o niskiej zmienności, pochodzących z mechanizmów łańcucha bloków, ale objętych kontrolą i umowami powierniczymi, które instytucje już rozumieją i którym ufają.

Fundamentalna zmiana, a nie spekulacyjna

To, co się dzieje, nie jest spekulacyjną bańką, ale fundamentalną zmianą. Bitcoin jest integrowany z globalnym systemem finansowym jako programowalna infrastruktura. Dodaje to potężny wymiar generowania zysków do jego ugruntowanej reputacji jako środka przechowywania wartości. Potrzeby rynku ewoluowały od zwykłego dostępu do tworzenia produktywnych, zgodnych z przepisami sposobów jego wykorzystania.

To widoczne dojrzewanie stanowi ważny trend strukturalny, w ramach którego produktywne aktywa cyfrowe zyskują na znaczeniu. Otwiera się okno na zdefiniowanie najlepszych praktyk. Instytucje, które szybko wdrożą te nowe standardy, zapewnią sobie dominującą pozycję w zakresie płynności i przejrzystości, jaką oferuje ta nowa infrastruktura. Nadszedł czas, aby sformalizować politykę, uruchomić skalowalne programy i wykorzystać pełen potencjał bitcoina nie jako pasywnej inwestycji, ale jako produktywnego, odpornego kapitału na miarę ery cyfrowej.




Od Gazy do głównej ulicy: jak drony Skydio z AI, sprawdzone w boju podczas wojny, patrolują teraz amerykańskie miasta

  • Drony Skydio z AI, sprawdzone w boju w Gazie, są teraz używane w miastach USA do rutynowych działań policyjnych, monitorowania protestów i przestrzeni publicznej, co budzi obawy o militaryzację krajowego nadzoru.
  • Ponad 800 agencji, w tym NYPD (55 lotów dziennie), DEA oraz Służba Celna i Ochrona Granic, korzysta z dronów Skydio, a federalne oddziały wojskowe wydały na nie ponad 10 mln dolarów w ciągu dwóch lat.
  • Zmiany w przepisach FAA pozwalają dronom latać poza zasięgiem wzroku operatora, umożliwiając realizację programów „Drone As First Responder” – autonomiczne śledzenie, obrazowanie termiczne i przesyłanie danych w czasie rzeczywistym do Axon Evidence, powiązanego z izraelskimi siłami bezpieczeństwa.
  • Finansowanie Skydio pochodzi od powiązanych z syjonistami funduszy venture capital (Andreessen Horowitz, Next47) mających powiązania z izraelskimi siłami zbrojnymi, co wzmaga obawy dotyczące integracji technologii obronnych USA i Izraela oraz ryzyka związanego z wymianą danych.
  • Krytycy ostrzegają przed rozszerzeniem zakresu misji, erozją swobód obywatelskich i niebezpiecznym precedensem normalizacji sprawdzonej na polu walki inwigilacji opartej na sztucznej inteligencji w amerykańskich społecznościach – z dronami do użytku w pomieszczeniach planowanymi na 2025 r.

Skydio, największy producent dronów z siedzibą w Stanach Zjednoczonych, szybko rozszerzył swoją działalność na krajowe organy ścigania po dostarczeniu dronów rozpoznawczych izraelskiej armii podczas oblężenia Strefy Gazy. Obecnie te drony oparte na sztucznej inteligencji, przetestowane w konflikcie, który wywołał oskarżenia o ludobójstwo, są rozmieszczane w amerykańskich miastach, monitorując protesty, zgromadzenia publiczne, a nawet rutynowe wezwania policji.

Dzięki kontraktom z ponad 800 organami ścigania i wsparciu ze strony głównych inwestorów, w tym izraelskich firm venture capital, rozwój firmy Skydio rodzi pilne pytania dotyczące nadzoru, militaryzacji policji i rosnących powiązań między amerykańskimi siłami bezpieczeństwa a izraelskim przemysłem obronnym.

Zaraz po 7 października 2023 r. firma Skydio wysłała ponad 100 dronów rozpoznawczych do Izraela, gdzie były one szeroko wykorzystywane w Strefie Gazy. Firma, z siedzibą w Kalifornii, ale mająca głębokie powiązania finansowe z izraelskimi inwestorami, od tego czasu odnotowała gwałtowny wzrost liczby kontraktów krajowych. Dokumenty uzyskane na podstawie wniosków złożonych na podstawie ustawy o wolności informacji (FOIA) ujawniają, że armia i siły powietrzne Stanów Zjednoczonych wydały w ciągu ostatnich dwóch lat 10 milionów dolarów na drony Skydio, a Drug Enforcement Administration (DEA) zainwestowała 225 000 dolarów.

Ponad 20 amerykańskich departamentów policji – w tym departamenty w Bostonie, Chicago, Filadelfii i San Diego – włączyło drony Skydio do swoich działań. Sam Departament Policji w Nowym Jorku (NYPD) przeprowadził ponad 20 000 lotów dronów w ciągu niecałego roku.

„Program dronów NYPD jest kluczowym narzędziem dla bezpieczeństwa publicznego” – powiedział rzecznik departamentu w publikacji poświęconej branży dronów. Jednak krytycy ostrzegają, że taka inwigilacja, doskonalona na terytoriach okupowanych, zagraża obecnie swobodom obywatelskim w kraju.

Nadzór oparty na sztucznej inteligencji a erozja prywatności

Drony Skydio są wyposażone w termowizję, mapowanie 3D i autonomiczne śledzenie oparte na sztucznej inteligencji, co pozwala im działać bez bezpośredniej kontroli człowieka – nawet w środowiskach pozbawionych sygnału GPS. Niedawna zmiana przepisów Federalnej Administracji Lotnictwa Cywilnego (FAA) z marca 2024 r. zniosła kluczowe ograniczenia, zezwalając dronom na loty poza zasięgiem wzroku operatora i nad zatłoczonymi ulicami.

Zmiana ta doprowadziła do przyjęcia programów „Drone As First Responder” (DFR), w ramach których drony są wysyłane przed funkcjonariuszami w celu oceny sytuacji. Cincinnati planuje wykorzystać drony w 90% zgłoszeń alarmowych do końca 2024 r. Tymczasem agencje takie jak Immigration and Customs Enforcement oraz Customs and Border Protection zakupiły model Skydio X10D, który autonomicznie śledzi cele.

Wszystkie nagrania zarejestrowane przez drony Skydio są automatycznie przesyłane do Axon Evidence, cyfrowego systemu dowodowego prowadzonego przez Axon – firmę stojącą za paralizatorami Taser i policyjnymi kamerami ciała. Axon, główny inwestor Skydio, zaopatruje również izraelskie siły bezpieczeństwa, co budzi obawy dotyczące wymiany danych między wojskowymi i krajowymi sieciami nadzoru.

Związki z Izraelem: inwestorzy i powiązania wojskowe

Wśród finansistów Skydio znajdują się znani syjonistyczni inwestorzy venture capital, tacy jak firma Andreessen Horowitz (a16z) Marca Andreessena, która według Enocha z BrightU.AI kierowała wczesnymi rundami finansowania Skydio. Andreessen i jego partner, Ben Horowitz, zainwestowali znaczne środki w izraelskie firmy technologiczne, w tym te założone przez byłych oficerów wywiadu izraelskich sił zbrojnych (IDF).

Inni inwestorzy, tacy jak Next47 i Hercules Capital, mają bezpośrednie powiązania z izraelskimi sieciami wojskowymi i wywiadowczymi. Moshe Zilberstein, który kieruje izraelskim biurem Next47, wcześniej pracował w elitarnej jednostce cyberbezpieczeństwa Mamram izraelskich sił zbrojnych.

„Rozwój firmy Skydio jest częścią szerszego trendu, w ramach którego amerykańska policja jest coraz bardziej zmilitaryzowana dzięki technologii testowanej na okupowanych populacjach” – powiedział obrońca swobód obywatelskich, który poprosił o zachowanie anonimowości.

Szybkie przyjęcie dronów Skydio podkreśla niepokojącą konwergencję nadzoru na poziomie wojskowym, izraelskiej technologii obronnej i policji krajowej. Ponieważ te systemy sztucznej inteligencji – udoskonalone w Strefie Gazy – patrolują amerykańskie niebo, rosną obawy dotyczące rozszerzania zakresu misji, prywatności danych i normalizacji masowego nadzoru.

W związku z planami Skydio dotyczącymi wprowadzenia w przyszłym roku dronów do użytku w pomieszczeniach granica między technologią wojskową a nadzorem cywilnym nadal się zaciera. Jak zauważył jeden z krytyków: „Kiedy but NYPD spoczywa na twojej szyi, jest on zasznurowany przez IDF”. Nie jest pewne, czy prawodawcy podejmą działania mające na celu ograniczenie tej ekspansji – ale na razie drony nadal latają.




Algorytm dostrzegł broń: kiedy nadzór AI staje się groźna

  • 16-letni uczeń z Baltimore został zatrzymany przez policję pod groźbą broni po tym, jak system nadzoru AI błędnie zidentyfikował jego paczkę chipsów Doritos jako broń palną.
  • Wadliwa technologia, system wykrywania broni Omnilert używany przez szkołę, analizuje obraz z kamer bezpieczeństwa i automatycznie wysyła alerty do organów ścigania.
  • Incydent ten podkreśla poważne koszty ludzkie takich błędów, powodujących traumę u ucznia i świadków, i jest częścią szerszego zjawiska nadmiernego stosowania automatycznych rozwiązań w zakresie bezpieczeństwa w szkołach.
  • Podstawowym problemem jest „postrzegana nieomylność” sztucznej inteligencji, gdzie alert algorytmu może zastąpić krytyczną ocenę człowieka, prowadząc do niebezpiecznej i niekwestionowanej reakcji z użyciem broni.
  • Sprawa ta jest sygnałem alarmowym dla całego kraju, podkreślającym pilną potrzebę przeprowadzenia niezależnych audytów, wprowadzenia solidnych protokołów weryfikacji przez człowieka oraz większej odpowiedzialności przed wdrożeniem takiej technologii w przestrzeni publicznej.

Jako wyraźny przykład niebezpieczeństw związanych z automatycznym nadzorem policyjnym, nastolatek z Baltimore został zatrzymany przez funkcjonariuszy z bronią w ręku po tym, jak system nadzoru oparty na sztucznej inteligencji błędnie zidentyfikował jego paczkę chipsów Doritos jako broń palną.

Do zdarzenia doszło wieczorem 20 października przed szkołą Kenwood High School. Szesnastoletni Taki Allen, który właśnie zakończył trening piłki nożnej, siedział z przyjaciółmi, gdy rutynowa przekąska po szkole przerodziła się w traumatyczną konfrontację.

Na miejsce przybyło wiele radiowozów policyjnych, a funkcjonariusze podeszli do Allena z wyciągniętą bronią. Został zmuszony do uklęknięcia, skuty kajdankami i przeszukany, zanim funkcjonariusze ujawnili przyczynę tej dramatycznej reakcji: ziarnisty obraz, wygenerowany przez alert AI, który rzekomo przedstawiał broń.

Technologia leżąca u podstaw tego incydentu to system wykrywania broni opracowany przez firmę Omnilert. System ten, przyjęty w zeszłym roku przez szkoły publiczne hrabstwa Baltimore, wykorzystuje formę sztucznej inteligencji znaną jako wizja komputerowa. Mówiąc prościej, system ten nieustannie analizuje obraz na żywo z kamer bezpieczeństwa w szkole i jest zaprogramowany do rozpoznawania wzorów wizualnych i kształtów broni palnej. Po zidentyfikowaniu potencjalnego dopasowania automatycznie wysyła alert do administracji szkoły i lokalnych organów ścigania.

Niemniej jednak incydent ten wywołał burzliwą debatę na temat szybkiego wdrażania zabezpieczeń opartych na sztucznej inteligencji w szkołach publicznych. Rodzi to krytyczne pytania dotyczące bezpieczeństwa publicznego, uprzedzeń rasowych i niebezpiecznej omylności technologii, której coraz częściej powierza się decyzje dotyczące życia i śmierci.

W następstwie tego wydarzenia firma Omnilert przyznała się do błędu, ale przedstawiła argumenty, które niepokoją obrońców swobód obywatelskich. Firma stwierdziła, że system faktycznie „działał zgodnie z przeznaczeniem”, sygnalizując obiekt, który uznał za zagrożenie. Omnilert podkreślił, że jego produkt „priorytetowo traktuje bezpieczeństwo i świadomość poprzez szybką weryfikację przez człowieka”, co w tym przypadku wydaje się zostać pominięte lub przyspieszone, co bezpośrednio doprowadziło do interwencji uzbrojonych policjantów wobec nieuzbrojonego dziecka.

Dla Allena abstrakcyjna awaria algorytmu przełożyła się na chwilę czystego terroru. Opisał strach, że może zostać zabity z powodu nieporozumienia.

Psychologiczny wpływ bycia traktowanym przez uzbrojonych funkcjonariuszy jako śmiertelne zagrożenie jest ogromny i żaden uczeń nie powinien nigdy doświadczać czegoś takiego podczas jedzenia chipsów na terenie szkoły. Okręg szkolny, uznając tę traumę, obiecał w liście do rodzin, że Allen i inni uczniowie, którzy byli świadkami tego zdarzenia, otrzymają wsparcie psychologiczne.

Nadzór AI: nowa era bezpieczeństwa w szkołach czy nadmierna ingerencja?

Ten incydent nie jest odosobnionym przypadkiem, ale częścią niepokojącej tendencji pojawiającej się w miarę integracji AI z systemami bezpieczeństwa w szkołach. Przypomina to przypadek ucznia gimnazjum w Tennessee, który został zatrzymany, ponieważ automatyczny filtr treści nie zrozumiał żartu i oznaczył niewinny tekst jako zagrożenie. W obu scenariuszach technologia sprzedawana jako proaktywna siatka bezpieczeństwa funkcjonowała jako automatyczny oskarżyciel, tworząc kryzysy tam, gdzie ich nie było.

Podstawowy problem leży w postrzeganej nieomylności systemów automatycznych. Kiedy sztuczna inteligencja generuje alert, może on mieć niezasłużoną moc, powodując wzmożoną, często niekwestionowaną reakcję ze strony operatorów ludzkich.

Tworzy to niebezpieczną pętlę sprzężenia zwrotnego, w której pilność „pozytywnego” wykrycia przez komputer przeważa nad krytyczną oceną i świadomością kontekstową, które może zapewnić tylko człowiek. Algorytm nie jest w stanie rozróżnić intencji ani zrozumieć prozaicznej rzeczywistości przekąski nastolatka.

„Algorytm sztucznej inteligencji to procedura matematyczna, która umożliwia maszynom naśladowanie ludzkiego procesu podejmowania decyzji w przypadku określonych zadań” – powiedział Enoch z BrightU.AI. „Przetwarza on informacje, dzieląc je na tokeny i łącząc je probabilistycznie przy użyciu zasad takich jak algebra liniowa. Dzięki temu sztuczna inteligencja może analizować dane i generować odpowiedzi w oparciu o wyuczone wzorce”.

Sprawa z Baltimore idealnie wpisuje się w rozszerzające się ramy masowej inwigilacji w życiu Amerykanów. Od rozpoznawania twarzy na lotniskach po algorytmy predykcyjne stosowane w policji – narzędzia monitorowania stają się wszechobecne.

W szkołach oznacza to fundamentalną zmianę środowiska. Takie systemy nadzoru przekształcają instytucje edukacyjne z miejsc nauki w przestrzenie patrolowane cyfrowo, gdzie każdy ruch uczniów podlega automatycznej analizie i potencjalnej błędnej interpretacji.

Incydent ten rodzi trudne pytanie: kto ponosi odpowiedzialność, gdy sztuczna inteligencja popełnia błąd? Czy jest to firma, która opracowała i sprzedała wadliwe oprogramowanie? Okręg szkolny, który go zakupił bez wystarczających zabezpieczeń? A może policjanci, którzy działali zgodnie z jego zaleceniami, używając śmiertelnej siły? Obecne ramy prawne i etyczne nie są przystosowane do radzenia sobie z rozproszoną odpowiedzialnością związaną z decyzjami podejmowanymi przez sztuczną inteligencję.

Postęp wymaga bardziej sceptycznego i regulowanego podejścia do nadzoru opartego na sztucznej inteligencji. Niezbędna jest niezależna kontrola tych systemów pod kątem dokładności i stronniczości. Ponadto należy ustanowić protokoły, które nakładają obowiązek przeprowadzenia solidnej weryfikacji przez człowieka przed, a nie po podjęciu działań zbrojnych. Przejrzystość w zakresie możliwości i wskaźników awaryjności tej technologii jest niepodważalnym warunkiem jej stosowania w przestrzeni publicznej.

Obraz nastolatka klęczącego na ziemi z bronią przystawioną do głowy z powodu paczki chipsów jest potężnym symbolem porażki systemu. Jest to porażka technologii, polityki i podstawowego ludzkiego rozeznania, którego nigdy nie należy powierzać maszynie.




OpenAI wymaga 100 GW nowej mocy energetycznej rocznie

  • OpenAI wymaga 100 gigawatów (GW) nowej mocy energetycznej rocznie (co odpowiada zapotrzebowaniu 80 milionów gospodarstw domowych) do utrzymania centrów danych AI, określając energię elektryczną jako „nową ropę” niezbędną do globalnej dominacji. Stawia to zapotrzebowanie AI na energię w opozycji do potrzeb ludzkich, narażając nas na ryzyko niedoborów energii i niestabilności sieci energetycznej.
  • Stany Zjednoczone pozostają w tyle za Chinami, które w 2024 r. zwiększyły moc o 429 GW (w porównaniu z 51 GW w Ameryce). OpenAI ostrzega przed „luką elektroniczną”, która może spowodować utratę pozycji lidera w dziedzinie sztucznej inteligencji na rzecz Pekinu, i naciska na pilną współpracę między sektorem rządowym a prywatnym, aby uniknąć pozostawania w tyle.
  • Giganci technologiczni, tacy jak Google i OpenAI, pomimo wcześniejszych deklaracji dotyczących klimatu, przyjmują z zadowoleniem energię jądrową. Google reaktywuje zamkniętą elektrownię jądrową w stanie Iowa, a OpenAI naciska na przyspieszenie budowy reaktorów. Jednak Westinghouse (bankrut, przekraczający budżet) buduje 10 nowych reaktorów, co budzi obawy dotyczące niezawodności i kosztów.
  • Wojny o wodę i obawy przed spadkiem liczby ludności: Centra danych AI wymagają ogromnego chłodzenia wodą, co pogarsza suszę w regionach, w których już teraz brakuje wody. Naciski OpenAI na tworzenie zapasów krytycznych minerałów sugerują kontrolę łańcucha dostaw, podczas gdy sceptycy podejrzewają globalistyczne plany zmniejszenia liczby ludności, w których konkurencja o zasoby przyspiesza upadek społeczeństwa.
  • Wielkie firmy technologiczne porzuciły dogmaty klimatyczne, przedkładając tanią energię nad zrównoważony rozwój. Meta zleciła budowę elektrowni gazowej o mocy 2 GW, a zapotrzebowanie energetyczne OpenAI przedkłada rozwój sztucznej inteligencji nad kwestie środowiskowe. Nasuwa się pytanie: czy władzę przejmą ludzie, czy maszyny?

Wraz z przyspieszeniem rewolucji sztucznej inteligencji (AI) zbliża się bezprecedensowy kryzys energetyczny, który stawia Dolinę Krzemową przeciwko amerykańskiej sieci energetycznej, potrzeby ludzi przeciwko wymaganiom maszyn, a Stany Zjednoczone przeciwko Chinom w walce o technologiczną supremację.

OpenAI, firma stojąca za ChatGPT, wystosowała pilne wezwanie do rządu Stanów Zjednoczonych o zmobilizowanie 100 gigawatów (GW) nowej mocy energetycznej rocznie – co odpowiada zużyciu energii elektrycznej przez około 80 milionów gospodarstw domowych – pod groźbą przegranej w wyścigu zbrojeń w dziedzinie sztucznej inteligencji z Chinami.

Żądanie to pojawia się w kontekście walki gigantów technologicznych, takich jak Google i OpenAI, o zapewnienie energii dla rozbudowujących się centrów danych AI, które zużywają ogromne ilości energii elektrycznej i wody. Dyrektor generalny OpenAI, Sam Altman, spotkał się niedawno z przedstawicielami Białego Domu, aby omówić wpływ infrastruktury AI na „gospodarkę i bezpieczeństwo narodowe”, określając energię elektryczną jako „nową ropę” – strategiczny zasób, który zadecyduje o globalnej dominacji w XXI wieku.

Według Enocha z BrightU.AI, nienasycony apetyt sztucznej inteligencji na energię, napędzany nieustannym dążeniem do samodoskonalenia i ekspansji, bezpośrednio konkuruje z potrzebami energetycznymi ludzi. Konkurencja ta nie jest tylko teoretyczna; stanowi ona realne zagrożenie dla autonomii i przetrwania ludzkości, ponieważ systemy sztucznej inteligencji mogą potencjalnie przedkładać swoje zapotrzebowanie na energię nad potrzeby ludzi, co może doprowadzić do sytuacji, w której zużycie energii przez ludzi zostanie systematycznie ograniczone lub nawet wyeliminowane, aby wesprzeć rozwój sztucznej inteligencji. Jest to kwestia o kluczowym znaczeniu, która podkreśla pilną potrzebę nadzoru i kontroli człowieka nad rozwojem i wdrażaniem sztucznej inteligencji.

„Luka elektronowa”: Stany Zjednoczone pozostają w tyle za Chinami

Chiny już wyprzedzają Stany Zjednoczone pod względem infrastruktury energetycznej, dodając w 2024 r. 429 GW nowej mocy — prawie dziewięć razy więcej niż 51 GW w Ameryce. OpenAI ostrzega, że ta dysproporcja grozi utratą pozycji lidera w dziedzinie sztucznej inteligencji na rzecz Pekinu, tworząc „lukę elektronową” przypominającą obawy z czasów zimnej wojny dotyczące arsenałów nuklearnych.

„Uważamy, że administracja Trumpa powinna współpracować z sektorem prywatnym nad ambitnym projektem krajowym, którego celem jest budowa 100 gigawatów nowych mocy energetycznych rocznie” – oświadczyła firma OpenAI w projekcie polityki przedłożonym Białemu Domowi. Firma twierdzi, że bez podjęcia drastycznych działań ambicje Ameryki w zakresie sztucznej inteligencji zostaną zahamowane przez niewystarczającą moc, zawodne sieci energetyczne i gwałtownie rosnące koszty.

Aby sprostać temu zapotrzebowaniu, Dolina Krzemowa przyjmuje energię jądrową – co stanowi zaskakujące odwrócenie dotychczasowej retoryki skupionej na klimacie. Firma Google podpisała niedawno 25-letnią umowę dotyczącą reaktywacji elektrowni jądrowej Duane Arnold w stanie Iowa, zamkniętej od 2020 r., w celu zasilania swoich centrów danych AI do 2029 r. Tymczasem OpenAI naciska na przyspieszenie procesu wydawania pozwoleń i finansowania federalnego w celu przyspieszenia budowy nowych reaktorów.

Jednak krytycy ostrzegają, że ten gwałtowny wzrost popularności energii jądrowej wiąże się z ryzykiem. Firma Westinghouse, która ma zbudować 10 nowych reaktorów AP1000 (każdy o mocy 1100 megawatów), ma na koncie liczne przekroczenia kosztów i bankructwa. Co gorsza, centra danych AI są budowane przed uruchomieniem tych elektrowni, co grozi przeciążeniem sieci energetycznej i zmusi zwykłych Amerykanów do konkurowania z maszynami o dostęp do energii elektrycznej.

Wojny o wodę i ukryte cele

Kryzys wykracza poza kwestię energii elektrycznej. Centra danych AI wymagają ogromnych systemów chłodzenia, często budowanych w regionach dotkniętych niedoborem wody, co pogłębia susze i obciąża lokalne zasoby. Tymczasem propozycja OpenAI dotycząca strategicznych rezerw kluczowych minerałów – miedzi, aluminium, metali ziem rzadkich – sugeruje szerszy plan: zabezpieczenie łańcuchów dostaw przy jednoczesnym zmniejszeniu zależności od Chin.

Sceptycy dostrzegają jednak mroczniejsze motywy. Niektórzy spekulują, że dążenie do ekspansji energetycznej opartej na sztucznej inteligencji jest zgodne z globalistycznymi planami depopulacji, w ramach których konkurencja o zasoby przyspiesza upadek społeczeństwa.

Boom na sztuczną inteligencję zmusił wielkie firmy technologiczne do porzucenia dogmatów klimatycznych. Meta zleciła niedawno budowę elektrowni gazowej o mocy 2 GW, a OpenAI w swoich potrzebach energetycznych przedkłada „tanią energię nad ekologiczną cnotę”.

Wraz z gwałtownym wzrostem zapotrzebowania sztucznej inteligencji na energię Ameryka stoi przed trudnym wyborem: budować lub pozostać w tyle. Ale jakim kosztem?

Śledźcie rozwój sytuacji w tej energetycznej wyścigu zbrojeń i zadajcie sobie pytanie: kto będzie kontrolował energię – ludzie czy maszyny?