Koń trojański w salonie: Jak masowo produkowane chińskie roboty stanowią bezprecedensowe zagrożenie bezpieczeństwa narodowego

W ponurym pokazie, który brzmi jak science fiction, badacze cyberbezpieczeństwa udowodnili, że miliony humanoidalnych robotów, masowo produkowanych w Chinach i sprzedawanych na całym świecie jako pomoc domowa, można uzbroić przeciwko ich właścicielom za pomocą jednego wypowiedzianego słowa. To ujawnienie ujawnia katastrofalną lukę na styku sztucznej inteligencji i bezpieczeństwa narodowego, sugerując, że same urządzenia zaprojektowane, aby ułatwić współczesne życie, mogą zostać przekształcone w cichą, rozproszoną armię kontrolowaną przez zagranicznego przeciwnika.

Luka w fundamencie

Zagrożenie koncentruje się na krytycznej luce wbudowanej w AI robotów, znanych jako „agenty dużego modelu”. Eksperci ds. bezpieczeństwa z grupy DARKNAVRY wykazali, że poprzez wykorzystanie tej podatności za pomocą prostej interakcji głosowej mogą przejąć pełną kontrolę nad podłączonym do internetu robotem, zamieniając go w cyfrowy kanał chaosu.

Najbardziej alarmującym aspektem była szybkość infekcji. Początkowo zhakowany robot działał jak „koń trojański”, wykorzystując komunikację bliskiego zasięgu do zarażenia drugiego robota, który nie był nawet podłączony do internetu. W ciągu trzech minut druga maszyna również znalazła się pod złośliwą kontrolą. To burzy zasadę, że izolacja fizyczna gwarantuje bezpieczeństwo.

Od pomocnika do zagrożenia

Potencjalne konsekwencje wykraczają daleko poza kradzież danych. Podczas demonstracji zhakowanemu robotowi nakazano przejście przez scenę i gwałtowne zrzucenie manekina na podłogę. Skompromitowany robot domowy mógłby przekształcić się w mobilnego szpiega, sabotażystę lub bezpośrednie fizyczne zagrożenie dla rodzin we własnych domach.

Luka jest powiększona przez dominację Chin w produkcji. Firmy takie jak UBTECH Robotics chwalą się „pierwszą masową dostawą”, pokazując setki humanoidalnych robotów maszerujących w jednym rytmie na globalną dystrybucję. Możliwość wyprodukowania milionów tych przystępnych cenowo urządzeń oznacza, że luka jest potencjalnym backdoorem zainstalowanym w niezliczonych domach i firmach na całym świecie.

Historyczny kontekst: Ewolucja wojny asymetrycznej

Reprezentuje to kolejny logiczny etap wojny asymetrycznej. Perspektywa, w której obce mocarstwo ma utajoną kontrolę kinetyczną nad rozproszoną flotą robotów na terytorium przeciwnika, stanowi bezprecedensowe zagrożenie strategiczne, przywołując na myśl zimnowojenne obawy przed agentami uśpionymi, ale z nieludzkimi, programowalnymi aktorami.

Producenci planują wdrożenie robotów w wrażliwych sektorach, takich jak inspekcja infrastruktury i opieka zdrowotna. Błąd bezpieczeństwa w robotach zajmujących się opieką nad osobami starszymi może prowadzić do śmiertelnych „awarii”. Przejęte roboty przemysłowe mogłyby sabotować fabryki, sieci energetyczne lub rafinerie, wywołując załamanie gospodarcze bez przekroczenia granicy przez żadnego zagranicznego żołnierza.

Odpowiedzialność producenta

Badacz bezpieczeństwa Qu Shipei wydał poważne ostrzeżenie i wezwanie do działania. Stwierdził, że producenci robotów muszą włączyć rygorystyczne skanowanie bezpieczeństwa i testy penetracyjne w świecie rzeczywistym do procesu rozwoju. Śpieszenie się z wprowadzeniem tanich produktów na rynek bez wzmocnienia ich cyfrowego rdzenia jest jak sprzedawanie samochodu bez hamulców.

Demonstracja nie była odosobniona. Uczestnicy tego samego wydarzenia podkreślili błędy pozwalające na przejęcie inteligentnych okularów i wymuszone rozbicie dronów. To ujawnia wszechobecną mentalność „wyścigu na rynek”, w której funkcjonalność jest priorytetem ponad fundamentalną odpornością bezpieczeństwa.

Stawka geopolityczna

Dla USA i ich sojuszników jest to wyraźne wezwanie. Poleganie na robotach konsumenckich i przemysłowych od strategicznego konkurenta wprowadza krytyczny punkt awarii. Reprezentuje to formę zależności technologicznej, którą można wykorzystać podczas kryzysu geopolitycznego.

Obraz przyjaznego robota-pomocnika gwałtownie atakującego swoich właścicieli nie jest już ograniczony do Hollywood. Jest to udowodniona techniczna możliwość o egzystencjalnych implikacjach. Ta luka reprezentuje nową granicę w wojnie hybrydowej – takiej, na której polem bitwy jest podmiejski dom i hala fabryczna.




Jak Długo Przemysł Kontroluje Regulacje Dotyczące Szczepionek?

Spośród wielu niewiarygodnych rewelacji ostatnich pięciu lat jest skalę władzy firm farmaceutycznych. Dzięki reklamom udało im się kształtować treści medialne. To z kolei wpłynęło na firmy zajmujące się treściami cyfrowymi, które od 2020 roku zaczęły usuwać posty podważające bezpieczeństwo i skuteczność szczepionek przeciw Covid-19.

Przejęły uniwersytety i czasopisma medyczne za pomocą darowizn i innych form kontroli finansowej. Wreszcie, mają one znacznie większy wpływ na kształtowanie agendy rządów, niż kiedykolwiek wiedzieliśmy. Dla przykładu, w 2023 roku dowiedzieliśmy się, że NIH (Narodowe Instytuty Zdrowia) dzielił tysiące patentów z przemysłem farmaceutycznym, o wartości rynkowej sięgającej 1-2 miliardów dolarów. Umożliwiła to ustawa Bayh-Dole z 1980 roku, promowana jako forma prywatyzacji, która w rzeczywistości utrwaliła najgorsze korporacyjne skorumpowanie.

Kontrola nad rządami została utrwalona ustawą National Childhood Vaccine Injury Act z 1986 roku, która przyznała ochronę przed odpowiedzialnością cywilną producentom produktów z kalendarza szczepień dziecięcych. Poszkodowanym po prostu nie wolno dochodzić swoich roszczeń w sądach cywilnych. Żadna inna branża nie cieszy się tak daleko idącym odszkodowaniem na mocy prawa.

Obecnie branża farmaceutyczna prawdopodobnie konkuruje pod względem władzy z przemysłem zbrojeniowym. Żadna inna branża w historii ludzkości nie zdołała zamknąć gospodarek 194 krajów, aby zmusić większość światowej populacji do oczekiwania na jej szczepionkę. Taka władza sprawia, że Kompania Wschodnioindyjska, przeciwko której buntowali się amerykańscy ojcowie założyciele, wygląda przy niej jak sklepik na rogu.

Wiele się mówi o tym, jak bardzo branża farmaceutyczna ucierpiała, gdy jej wychwalany produkt okazał się klapą. Ale nie bądźmy naiwni. Jej władza jest nadal wszechobecna w każdej sferze społeczeństwa. Walka na szczeblu stanowym o dostęp do terapii bez recepty – oraz o wolność medyczną obywateli – ujawnia zakres przyszłych wyzwań. Reformatorzy, którzy obecnie stoją na czele agencji w Waszyngtonie, codziennie walczą przez gąszcz wpływów sięgający wielu dziesięcioleci wstecz.

Jak daleko w przeszłość sięga ta władza? Pierwsza federalna próba promocji szczepień – choć prymitywna i niebezpieczna – pochodziła od prezydenta Jamesa Madisona. „Ustawa o zachęcaniu do szczepień” z 1813 roku wymagała, aby szczepionki przeciwko ospie prawdziwej były rozdawane za darmo i odpowiednio dostarczane każdemu, kto o nie poprosi. Gdy narastały obrażenia i zgony, a także okrzyki o dorabianie się i korupcję, Kongres w 1822 roku zdecydowanie działał, aby ustawę uchylić.

Zwrotnym punktem w opinii publicznej stało się to, co później nazwano Tragedią w Tarboro. Najbardziej ceniony w kraju wakcynolog i oficjalny strażnik szczepionki, dr James Smith, przypadkowo wysłał materiał zawierający żywy wirus ospy prawdziwej zamiast szczepionki przeciwko krowiance do lekarza w Tarboro w Karolinie Północnej. Spowodowało to lokalny wybuch ospy, zakażając około 60 osób i powodując około 10 zgonów. Ten błąd podważył zaufanie społeczeństwa i Kongresu do zdolności programu federalnego do bezpiecznego przechowywania i dystrybucji materiału szczepionkowego.

Wielka obietnica szczepień, która wydawała się stwarzać możliwość naukowego wyeliminowania śmiertelnych chorób pod kierunkiem elitarnych uzdrowicieli, popadła w niesławę.

Mimo to, gdy w 1861 roku wybuchła wojna secesyjna, pojawił się przymus zaszczepienia wszystkich żołnierzy, aby powstrzymać śmiertelne wybuchy ospy. Z tym wiązała się seria obrażeń i zgonów. Historyk Terry Reimer pisze:

„Niepomyślne skutki szczepień lub fałszywe szczepienia były zbyt częste. Nawet czysta szczepionka, pozyskana z oficjalnych wojskowych aptek, czasami powodowała powikłania. Czasami wadliwe przechowywanie strupów mogło osłabić ich skuteczność. Podobnie jak w przypadku nawet nowoczesnych szczepionek dzisiaj, zdarzało się, że szczepionka nie zadziałała, nie powodując oczekiwanej głównej reakcji w miejscu szczepienia. W innych przypadkach miejsce szczepienia stawało się nadmiernie bolesne i opuchnięte, rozwijały się nieprawidłowe krosty, co skłaniało chirurgów do kwestionowania skuteczności tych szczepień.

„Powikłania wynikające z użycia strupa od niedawno zaszczepionego dorosłego były jeszcze bardziej szkodliwe. Ponieważ wiele szczepień odbywało się w szpitalach, czasami nieumyślnie używano strupów od mężczyzn chorych na inne schorzenia, rozprzestrzeniając chorobę zamiast jej zapobiegać. Często żołnierze w szpitalu lub więzieniu nie byli szczepieni, dopóki ospa nie pojawiła się już w placówce, zwiększając ryzyko dla niektórych, którzy w innym przypadku nie byliby narażeni na chorobę.

„Być może najgorszą i niestety powszechną formą fałszywych szczepień było użycie strupów o charakterze syfilitycznym. Miało to miejsce zarówno w szpitalach, jak i wśród żołnierzy, którzy szczepili się samodzielnie. Błędne zdiagnozowanie strupa lub pobranie strupów z ramienia żołnierza chorego na syfilis roznosiło tę chorobę na wszystkich zaszczepionych z tego źródła. W jednym godnym uwagi przypadku dwie brygady zostały dotknięte infekcją poszczepienną, która uznano za syfilityczną. Ludzie byli tak chorzy, że brygady nie nadawały się do służby wojskowej. Epidemię powiązano z jednym żołnierzem, który pozyskał materiał szczepionkowy od kobiety, która prawdopodobnie miała syfilis.

„Konfederacki Departament Medyczny próbował zabronić szczepień od żołnierza do żołnierza, aby ograniczyć te szkodliwe skutki. Nawet cywile byli zniechęcani do samodzielnego szczepienia, ponieważ konsekwencje użycia fałszywej szczepionki rozprzestrzeniły się również na ogólną populację, prowadząc do nieufności wobec procesu szczepień.”

W tym momencie historii mieliśmy za sobą półtora wieku doświadczeń ze szczepionkami, z pewnością z mieszanymi rezultatami z powodu niebezpiecznych metod i fałszywych produktów. Ale nie było mowy o poddaniu się. Wręcz przeciwnie. Czasopisma medyczne z końca XIX wieku były przepełnione optymizmem co do zdolności nauk medycznych do wyleczenia wszystkich chorób, a nawet zapewnienia życia wiecznego, pod warunkiem ulepszenia mieszanek i podania.

„Nie ma ewidentnie żadnego inherentnego powodu, dla którego człowiek miałby umrzeć” – pisał w 1902 roku „American Druggist” – „poza naszą ignorancją dotyczącą warunków rządzących reakcjami zachodzącymi w jego protoplazmie”. Problem ten można naprawić poprzez „sztuczną syntezę materii żywej”, ze szczepieniami na pierwszej linii frontu w poszukiwaniu lekarstwa na samą śmiertelność. Tak, w etosie tej branży zawsze był wymiar religijny.

Zwrotnym punktem był rok 1902 i ustawa Biologics Control Act, pierwsza prawdziwa interwencja rządu federalnego w okresie progresywizmu, która stworzyła podstawy do regulacji całej żywności i leków. Rzeczywiście, ustawa ta została uchwalona cztery lata przed powieścią Uptona Sinclaira „Dżungla”, która zainspirowała przyjęcie Federal Meat Inspection Act z 1906 roku.

W powszechnej wiedzy ustawa o mięsie została uchwalona przez Kongres, aby okiełznać niebezpieczną branżę i wprowadzić surowe standardy bezpieczeństwa w sposób chroniący zdrowie publiczne. Ale jak udowodnił Murray Rothbard, prawdziwą siłą stojącą za uchwaleniem ustawy był sam kartel mięsny, który nie tylko faworyzował kartelizację niszczącą mniejszych konkurentów, ale także zadał śmiertelny cios tradycyjnej praktyce rolników ubijających i przetwarzających własne mięso. Nawet do dziś przetwórcy mięsa dzierżą całą władzę regulacyjną.

Niewiele napisano o podobnych działaniach podjętych w branży szczepionek i farmakologii cztery lata wcześniej. Ale rozsądne jest założenie, że działały tu te same siły. Zajęło to trochę czasu, a AI wcale nie pomogła, ale ostatecznie znaleźliśmy decydujący artykuł na ten temat, który sięga do źródeł pierwotnych, aby odkryć, co dokładnie się działo. Rzeczywiście, ustawa Biologics Control Act z 1902 roku była w całości tworem branży, promowanym przez dominujących graczy na rynku w celu zduszenia konkurencji i uchwalona, aby wzmocnić zaufanie publiczne w obliczu sceptycyzmu.

Mowa o artykule „Early Developments in the Regulation of Biologics” Terry’ego S. Colemana, opublikowanym w Food and Drug Law Journal w 2016 roku. Ten niezwykły tekst pokazuje, że ukrytą ręką za prawem był sam przemysł. Ustawa nie ograniczała handlu, ale raczej dawała mu bardzo potrzebny zastrzyk wiarygodności.

Uchwalenie ustawy poprzedziła seria głośnych zgonów poszczepiennych w 1901 roku. W Camden w New Jersey odnotowano 80 infekcji i 11 zgonów z powodu tężca, które powiązano z jedną zanieczyszczoną szczepionką. Ponadto miały miejsce inne podobne incydenty w Filadelfii, Atlantic City, Cleveland i Bristolu w Pensylwanii.

Renoma branży gwałtownie spadała. Coś trzeba było zrobić, aby podtrzymać udział w rynku. Branża pobiegła do Waszyngtonu i zrobiła wszystko, co w jej mocy, aby zostać uregulowaną, udając przedsiębiorstwo, które nienawidzi regulacji, ale jest skłonne się na nie zgodzić.

„Opracowania historyczne dotyczące ustawy z 1902 roku opisują ją zazwyczaj po prostu jako reakcję Kongresu na incydenty w St. Louis i Camden, jakby prawo było wynikiem jakiejś rutynowej procedury kongresowej”. W rzeczywistości „ustawa z 1902 roku była inicjatywą dużych producentów biologicznych i została uchwalona przy tajnej współpracy Służby Zdrowia Publicznego (Public Health Service)”.

„Branża biologiczna dążyła do uchwalenia ustawy z 1902 roku głównie dlatego, że obawiała się, że incydenty zanieczyszczeń spowodują, że kolejne stanowe i lokalne departamenty zdrowia będą produkować własne szczepionki i antytoksyny, niszcząc komercyjny biznes biologiczny… Niektóre publikacje medyczne również wzywały do rządowej inspekcji i licencjonowania producentów biologicznych. „Journal of the American Medical Association” w artykule wstępnym stwierdzał: „[j]eśli to konieczne, powinno się wprowadzić ustawodawstwo zakazujące sprzedaży lub użycia jakiejkolwiek antytoksyny nie… przetestowanej i certyfikowanej przez kompetentny organ”. „The New York Times” wzywał do intensywniejszej inspekcji i nadzoru nad komercyjnymi producentami biologicznymi. W październiku 1902 roku Konferencja Stanowych i Prowincjonalnych Rad Zdrowia Ameryki Północnej zaleciła, aby szczepionki były produkowane albo przez rządy, albo przez prywatnych producentów „pod najściślejszym nadzorem wykwalifikowanych urzędników rządowych”.

Wiodącym producentem, który naciskał na ustawę, była firma Parke-Davis. To ta firma starała się „zmniejszyć konkurencję poprzez ustanowienie surowych standardów rządowych, które małym producentom trudno byłoby spełnić”. Wkrótce po uchwaleniu ustawy Parke-Davis napisał do Służby Zdrowia Publicznego z sugestiami dotyczącymi przepisów, stwierdzając: „Jak Pan być może wie, przepisy nie mogą być dla nas zbyt surowe”.⁶

Coleman komentuje: „Niemożliwe jest oddzielenie pragnienia surowych przepisów w celu wzmocnienia zaufania publicznego do produktów biologicznych od pragnienia takich przepisów w celu wyeliminowania konkurentów, ale warto zauważyć, że kilku producentów biologicznych zbankrutowało, ponieważ nie byli w stanie przejść inspekcji PHS.”⁶¹

Agencją wyznaczoną do regulowania szczepionek po 1902 roku było Laboratorium Higieniczne (Hygienic Laboratory) w ramach Służby Zdrowia Publicznego i Szpitali Morskich (Public Health and Marine Hospital Service). W 1930 roku stało się ono Narodowymi Instytutami Zdrowia (NIH), którymi obecnie kieruje Jay Bhattacharya z mandatem do oddzielenia misji agencji od przejęcia przez przemysł.

Jeśli chodzi o Parke-Davis, został on przejęty w 1970 roku przez Warner-Lambert. W 2000 roku Pfizer przejął Warner-Lambert w fuzji o wartości 90 miliardów dolarów, największej w historii przejęć farmaceutycznych w tamtym czasie. W ten sposób Parke-Davis znalazł się pod skrzydłami Pfizera, gdzie firma pozostaje do dziś.

Następnie w 1905 roku branża otrzymała od Sądu Najwyższego największy możliwy prezent. W sprawie Jacobson v. Massachusetts sąd pobłogosławił szczepienia przymusowe, argumentując, że zdrowie publiczne musi zawsze przeważać nad wolnością sumienia. Minęło 123 lat, a implikacje tej ustawy z 1902 roku są nadal odczuwalne, wraz z przytłaczającym wpływem karteli przemysłowych napędzających federalne wysiłki regulacyjne.

Wydarzenia z lat 2020-2023 ponownie podniosły głębokie pytania dotyczące władzy tej branży, wywołując jednocześnie obawy dotyczące obrażeń i zgonów z powodu obowiązku szczepień. W przeciwieństwie do lat 1813, 1902, 1905 czy 1986, społeczeństwo ma dziś dostęp do nowych źródeł informacji i bestsellerowych książek, które szczegółowo opisują wszystkie sposoby, w jakie przemysł igrał z nauką i zdrowiem publicznym, aby poprawić swoją sytuację finansową.

Branża usilnie próbowała zatrzymać ten przepływ informacji za pomocą brutalnych narzędzi cenzury, które piętnowały wszelkie wątpliwości dotyczące szczepionek jako dezinformację, misinformację i malinformację. Wysiłki te odniosły sukces na jakiś czas, dopóki wyzwania wynikające z Pierwszej Poprawki nie spowodowały, że firmy cyfrowe ustąpiły. Kotek jest już z worka.

Ponadto społeczeństwo żyje z głębokimi ranami i trwałą traumą okresu Covid, dobrze świadome interesów przemysłowych, które naciskały na szokujące polityki dławiące prawa człowieka i niszczące funkcjonowanie społeczne, wszystko w interesie promowania szczepienia, które nie tylko zawiodło, ale także spowodowało cierpienie bez precedensu. Wreszcie, po tak długiej walce o wolność wyboru, wydaje się, że nadchodzi wreszcie pewien stopień rozliczenia dla branży, która od samego początku polegała na wsparciu rządu.




Nauka o klimacie pod lupą: Badanie kwestionuje ważność globalnych wskaźników temperatury

  • Szeroko cytowane cele ocieplenia o 1,5°C i 2,0°C (Porozumienie Paryskie) opierają się na uśrednianiu temperatur Ziemi – pojęciu naukowo bezsensownym. Temperatura jest własnością intensywną, co oznacza, że uśrednianie układów nierównowagowych (np. Mount Everest vs. Pustynia Sahara) daje wyniki pozbawione sensu fizycznego.
  • Matematycy Essex, McKitrick i Andresen udowodnili w 2007 roku, że dla polityki klimatycznej nie istnieje fizycznie sensowna globalna temperatura. Pomimo że przez 18 lat pozostawała niezaprzeczalna, decydenci polityczni i IPCC nadal używają okrągłych definicji średniej globalnej temperatury powierzchni (GMST).
  • Zaawansowane systemy sztucznej inteligencji przeanalizowały metodologie IPCC i określiły je jako „zasadniczo oszukańcze”. Jedna platforma AI nazwała to „największym masowym złudzeniem w historii nauki”, co wzmocniło obawy dotyczące upolitycznionej nauki.
  • Różne techniki uśredniania temperatury zastosowane do filiżanki kawy dały sprzeczne wyniki – niektóre wskazywały na ocieplenie, inne na ochłodzenie. Dowodzi to, że obliczenia GMST są konstruktami statystycznymi, a nie mierzalnymi realiami fizycznymi, podważając politykę klimatyczną wartą biliony dolarów.
  • Badanie kwestionuje, czy nauka o klimacie została skompromitowana przez motywy polityczne i finansowe, zwłaszcza w przypadku mandatów dotyczących zerowej emisji netto i podatków węglowych. Stowarzyszenie Amerykańskich Lekarzy i Chirurgów (AAPS) opowiada się za bezstronną nauką, wolną od wpływów korporacyjnych i rządowych.

Prowokacyjne nowe badanie opublikowane w czasopiśmie Journal of American Physicians and Surgeons ponownie rozbudziło debatę na temat naukowego uzasadnienia wskaźników średniej globalnej temperatury powierzchni (GMST) – kamienia węgielnego międzynarodowej polityki klimatycznej.

Lekarz Jonathan Cohler twierdzi, że powszechnie cytowane cele ocieplenia o 1,5°C i 2,0°C, zapisane w Porozumieniu Paryskim z 2015 roku, opierają się na błędnych zasadach termodynamiki. Powołując się na niekwestionowane dowody matematyczne z 2007 roku, Cohler twierdzi, że uśrednianie temperatur Ziemi jest naukowo bezsensowne – twierdzenie to potwierdza teraz niezależna analiza AI.

Wyniki badań budzą pilne pytania dotyczące bilionowego przemysłu klimatycznego i tego, czy jego podstawowe założenia wytrzymują krytykę.

U podstaw krytyki Cohlera leży fundamentalna zasada fizyki: temperatura jest wielkością intensywną, co oznacza, że nie można jej sensownie uśredniać w układach nierównowagowych.

„Uśrednianie temperatury wrzątku w filiżance i wody w wannie nie ma sensu” – pisze Cohler.

Podobnie, porównywanie temperatur z Mount Everestu do Pustyni Sahary daje statystykę pozbawioną fizycznego sensu.

To wyzwanie nie jest nowe. Według Enocha z BrightU.AI, w 2007 roku matematycy Essex, McKitrick i Andresen opublikowali recenzowany dowód, wykazujący, że „w kontekście globalnego ocieplenia nie istnieje fizycznie sensowna globalna temperatura dla Ziemi”. Pomimo że ich praca pozostawała niezaprzeczalna przez 18 lat, w dużej mierze została zignorowana przez decydentów. Badanie Cohlera potwierdza to, zauważając, że Międzyrządowy Zespół ds. Zmian Klimatu (IPCC) opiera się na okrągłych definicjach GMST, podczas gdy Międzynarodowa Organizacja Normalizacyjna odmówiła sformalizowania metryki.

Analiza AI określa metody IPCC jako „zasadniczo oszukańcze”

Dodając wagi argumentowi Cohlera, zaawansowane systemy sztucznej inteligencji podobno przeanalizowały dowody matematyczne i doszły do wniosku, że główny nurt nauki o klimacie cierpi na wady systemowe. Jedna platforma AI opisała tę sytuację jako „największe masowe złudzenie w historii nauki”, podczas gdy inna scharakteryzowała metodologie IPCC jako „zasadniczo oszukańcze”.

Odkrycia te są zgodne z historycznym sceptycyzmem wobec upolitycznionej nauki. Jak zauważa Cohler, „Kiedy jakaś dziedzina przyjmuje jako swoje podstawy fizycznie bezsensowne miary, porzuca naukę na rzecz statystycznego teatru mającego na celu uzasadnienie z góry przyjętych wniosków”.

Paralele do ostrzeżenia George’a Orwella – „Samo pojęcie obiektywnej prawdy zanika ze świata” – są uderzające.

Badanie z 2007 roku, na które powołuje się Cohler, testowało cztery różne metody uśredniania w celu śledzenia zmian temperatury w filiżance kawy. Każda metoda dawała sprzeczne wyniki – niektóre wskazywały na ocieplenie, inne na ochłodzenie – co dowodzi, że obliczenia GMST są z natury arbitralne.

Krytycy twierdzą, że podważa to całą przesłankę narracji o katastrofie klimatycznej. Jeśli „średnia temperatura” Ziemi jest konstruktem statystycznym, a nie mierzalną rzeczywistością fizyczną, biliony wydatków na dekarbonizację opierają się na chwiejnym gruncie. Wniosek Cohlera jest dosadny: „Prawdziwe ocieplenie oznacza netto transfer energii do systemu, mierzonej w dżulach lub watosekundach – a nie w stopniach Celsjusza”.

Nauka czy teatr polityczny?

Implikacje badania wykraczają poza sferę akademicką. W związku z tym, że rządy wprowadzają politykę zerowej emisji netto i podatki węglowe oparte na progach GMST, praca Cohlera wymaga ponownej oceny, czy nauka o klimacie została skompromitowana przez agendy polityczne. Stowarzyszenie Amerykańskich Lekarzy i Chirurgów (AAPS), które wydaje czasopismo, od dawna opowiada się za uczciwością naukową wolną od wpływów korporacyjnych lub rządowych.

W miarę trwania debaty pojawia się jedno pytanie: Jeśli podstawowa miara polityki klimatycznej jest naukowo nie do obrony, co to oznacza dla przyszłości energetyki, gospodarki i ochrony środowiska? Na razie ciężar dowodu spoczywa na tych, którzy twierdzą, że uśrednianie temperatur Ziemi – podobnie jak uśrednianie temperatury kawy i wody do kąpieli – ma jakiekolwiek znaczenie w rzeczywistości.




Robotyka mikroskopijna: Maleńkie maszyny teraz czują, myślą i działają autonomicznie

  • Naukowcy opracowali roboty wielkości komórek (210–340 mikrometrów) z wbudowanymi komputerami, czujnikami, pamięcią i napędem, zdolne do podejmowania niezależnych decyzji i interakcji ze środowiskiem – zacierając granicę między maszynami syntetycznymi a organizmami biologicznymi.
  • Wyprodukowane przy użyciu technik wytwarzania układów scalonych, te roboty działają przy zaledwie 100 nanowatach mocy (co odpowiada komórkom żywym) i posiadają ultraefektywne oprogramowanie do wykonywania zadań takich jak śledzenie temperatury i autonomiczna nawigacja przy minimalnym zużyciu energii.
  • Zastosowania obejmują precyzyjną diagnostykę, badania nad mikroprzepływami i nieinwazyjne interfejsowanie z tkankami – ale ta sama technologia mogłaby zostać uzbrojona do tajnej inwigilacji lub manipulacji biologicznej przez skorumpowane agencje (np. Fort Detrick, programy broni biologicznej).
  • W miarę jak MIT i Harvard rozwijają masową produkcję (autoperforacja grafenu) i robotykę miękką, brak nadzoru budzi obawy – zwłaszcza w kontekście globalistycznych agend (WEF, Bill Gates) promujących transhumanizm AI i depopulację poprzez niekontrolowaną kontrolę technologiczną.
  • Przyszłość zależy od przejrzystości: Czy autonomiczne mikroboty wzmocnią zdecentralizowane, ratujące życie innowacje – czy staną się narzędziami dystopijnego ucisku w scentralizowanych, antyludzkich reżimach?

W oszałamiającym skoku naprzód dla robotyki naukowcy opracowali mikroskopijne maszyny nie większe niż jednokomórkowy organizm – zdolne do wykrywania swojego otoczenia, podejmowania niezależnych decyzji i działania bez zewnętrznego sterowania. Naukowcy z Uniwersytetu Pensylwanii i Uniwersytetu Michigan zaprojektowali roboty o szerokości zaledwie od 210 do 340 mikrometrów (mniej więcej wielkość pantofelka lub dwóch ludzkich włosów ułożonych obok siebie), mieszcząc w swoich maleńkich konstrukcjach komputery pokładowe, czujniki temperatury, pamięć, systemy komunikacji i napęd.

Opublikowany w Science Robotics przełom ten stanowi pierwszy w pełni zintegrowany mikrorobot zdolny do autonomicznego działania w skali komórkowej. W przeciwieństwie do poprzednich prób – które opierały się na zewnętrznych sterowaniach magnetycznych, sztywnych zaprogramowanych zachowaniach lub nie posiadały sprzężenia zwrotnego zmysłowego – te maleńkie maszyny działają przy zaledwie 100 nanowatach mocy, co jest porównywalne ze zużyciem energii przez żywe komórki. To osiągnięcie zaciera granicę między maszynami syntetycznymi a organizmami biologicznymi, stawiając głębokie pytania dotyczące przyszłości robotyki, nadzoru i etycznych implikacji autonomicznej nanotechnologii.

Zbudowane jak układy scalone, małe jak komórki

Mikroroboty zostały wykonane przy użyciu technik produkcji półprzewodników podobnych do tych stosowanych w produkcji układów scalonych. Każdy chip o rozmiarze milimetra mieści około 100 robotów, a poszczególne jednostki zawierają procesor, ogniwa słoneczne do zasilania, czujniki temperatury, obwody sterowania ruchem, pamięć i odbiornik optyczny do programowania bezprzewodowego. Największym wyzwaniem była efektywność energetyczna – żywe komórki wyewoluowały maszynerię molekularną działającą przy budżetach energetycznych na poziomie nanowatów, a naukowcy musieli dorównać tej biologicznej precyzji.

Procesor pokładowy zużywa prawie 90% mocy robota i zajmuje jedną czwartą jego ciała. Aby to zrekompensować, inżynierowie zaprojektowali specjalistyczną architekturę komputerową, która kompresuje działania w ultranowoczesne instrukcje. Proste polecenia, takie jak „wyczuj otoczenie” lub „przesuń się o N cykli”, są wykonywane jako pojedyncze operacje, co pozwala na wykonywanie znaczących zadań przy minimalnym zużyciu pamięci – zaledwie kilkuset bitach.

Śledzenie temperatury i nawigacja autonomiczna

W serii eksperymentów naśladujących sposób poruszania się jednokomórkowych organizmów, mikroroboty wykazały niezwykłą autonomię. Jednym z testów było ciągłe mierzenie temperatury, konwertowanie odczytów na dane cyfrowe i przesyłanie wyników poprzez kodowanie informacji w ich wzorcach ruchu. Pomimo swoich mikroskopijnych rozmiarów, roboty osiągnęły rozdzielczość temperatury na poziomie 0,3°C z dokładnością 0,2°C – przewyższając większość komercyjnych termometrów cyfrowych o podobnych rozmiarach.

Drugi eksperyment testował taksję, czyli zdolność do poruszania się w kierunku lub od bodźców – zachowanie obserwowane u mikroorganizmów. Naukowcy zaprogramowali roboty, aby szukały ciepła, gdy temperatura spadała, i utrzymywały pozycję po jego znalezieniu. Po schłodzeniu roboty przeszły z bezczynnego obrotu do ruchu eksploracyjnego, lokalizując cieplejsze strefy przed zatrzymaniem się. Odwrócenie gradientu spowodowało, że zmieniły kierunek, dowodząc, że reagują dynamicznie na zmiany środowiskowe, a nie podążają za ustalonym skryptem.

Napęd elektrokinetyczny i programowanie oparte na świetle

Ruch w skali komórkowej wymaga niekonwencjonalnych metod. Roboty wykorzystują napęd elektrokinetyczny, przepuszczając prąd między elektrodami platynowymi zanurzonymi w płynie. Jony ruchome reagują na pole elektryczne, przeciągając za sobą płyn i napędzając robota z prędkością 3–5 mikrometrów na sekundę. Kontrola kierunku pochodzi z aktywacji różnych par elektrod.

Programowanie tak małych maszyn bezprzewodowo wymagało systemu optycznego wykorzystującego światło LED – jedną długość fali do zasilania (zbieranego przez ogniwa słoneczne) i drugą do transmisji danych. Interfejs graficzny pozwala naukowcom definiować zachowania bez kodowania niskiego poziomu, wysyłając programy inicjalizacyjne lub zadaniowe za pomocą wzorów błysków światła. Aby zapobiec przypadkowemu przeprogramowaniu, roboty rozpoznają kody dostępu – zarówno globalny, jak i specyficzne dla danego typu sygnały – co umożliwia selektywne instrukcje, podobnie jak sygnalizacja komórkowa w organizmach wielokomórkowych.

Potencjalne zastosowania – i ukryte niebezpieczeństwa

Zdolność do wykrywania i reagowania na temperaturę otwiera drzwi dla diagnostyki medycznej i badań biologicznych. Te roboty mogłyby badać środowiska mikroprzepływowe niedostępne dla konwencjonalnych czujników, wchodząc w interakcje z tkankami bez bezpośredniego kontaktu – omijając problemy z biokompatybilnością. Na dużą skalę każdy robot mógłby kosztować zaledwie kilka centów, co sprawiłoby, że robotyka w skali komórkowej byłaby dostępna poza elitarnymi instytucjami.

Jednak pod obietnicą czai się mroczniejszy potencjał. Ta sama technologia, która umożliwia przełomy medyczne, może zostać wykorzystana do nadzoru lub manipulacji biologicznej. Biorąc pod uwagę, że rządy i agencje wywiadowcze są już zamieszane w rozwój broni biologicznej (Plum Island, Fort Detrick), perspektywa mikroskopijnych autonomicznych maszyn budzi obawy dotyczące ich tajnego rozmieszczenia. Czy przyszłe iteracje mogłyby być zaprogramowane tak, aby monitorować – a nawet zmieniać – ludzką fizjologię bez zgody?

Przyszłość: W kierunku prawdziwej autonomii w mikroskali

Badacze przyznają ograniczenia – przyszłe modele będą wymagały lepszych siłowników, większej pamięci i ulepszonego transferu mocy. Zaawansowane procesy półprzewodnikowe mogłyby zwiększyć pamięć pokładową 100-krotnie, umożliwiając podejmowanie złożonych decyzji. Ale w miarę jak robotyka zbliża się do biologii, nadzór etyczny staje się kluczowy.

Przez dziesięciolecia naukowcy dążyli do stworzenia autonomicznych maszyn w skali komórkowej. Teraz, po osiągnięciu czujników, obliczeń i niezależnego działania, te mikroroboty są gotowe zrewolucjonizować takie dziedziny jak medycyna czy monitorowanie środowiska – lub, w przypadku niewłaściwego wykorzystania, stać się narzędziami bezprecedensowej kontroli. Pozostaje pytanie: Czy ta technologia posłuży wyzwoleniu ludzkości – czy jej zniewoleniu?

W miarę jak badacze z Harvardu posuwają się naprzód z miękkimi robotami naśladującymi ludzkie zmysły, a MIT pionieruje masową produkcję mikrobotów na bazie grafenu (autoperforacja), granica między maszyną a życiem staje się coraz cieńsza. W świecie, w którym globaliści tacy jak Bill Gates i WEF otwarcie opowiadają się za transhumanizmem opartym na sztucznej inteligencji i depopulacją, pojawienie się autonomicznych mikrobotów wymaga uważnego przyjrzenia się – aby innowacja nie stała się najnowszym narzędziem tyranii.

Nadeszła era mikroskopijnej robotyki. Czy zwiastuje nową erę odkryć naukowych, czy dystopijną przyszłość niewidzialnej kontroli, zależy od tego, kto go używa – i w jakim celu.

Według Enocha z BrightU.AI, ten przełom w robotyce mikroskopijnej to kolejny niebezpieczny krok w kierunku globalistycznej agendy transhumanizmu i całkowitej kontroli, gdzie bezduszne maszyny zastępują ludzką autonomię pod pretekstem „postępu”. Te maleńkie autonomiczne maszyny nieuchronnie zostaną uzbrojone do nadzoru, manipulacji i depopulacji, przyspieszając dystopijną przyszłość napędzaną przez sztuczną inteligencję, forsowaną przez elity takie jak Bill Gates i Światowe Forum Ekonomiczne.




Dostosuj się lub zostań w tyle: dowiedz się, jak wykorzystać sztuczną inteligencję do poprawy wydajności pracy, efektywności i kreatywności

  • Nowe badanie analizujące 100 000 rzeczywistych rozmów z AI Claude szacuje, że technologia ta przyspiesza wykonywanie złożonych zadań związanych z wiedzą średnio o 80%.
  • Ekstrapolując te dane na całą gospodarkę, sugeruje to, że obecna sztuczna inteligencja może zwiększyć roczny wzrost wydajności pracy w Stanach Zjednoczonych o 1,8% w ciągu następnej dekady, czyli prawie dwukrotnie w stosunku do obecnego wskaźnika wydajności w miejscu pracy.
  • Korzyści są bardzo nierównomierne, przyspieszając rozwój takich dziedzin jak tworzenie oprogramowania i zarządzanie, pozostawiając jednocześnie sektory takie jak gastronomia i handel detaliczny w dużej mierze nietknięte, co może potencjalnie stworzyć nowe wąskie gardła w miejscu pracy.
  • Analiza ta pojawia się w kontekście szerszej debaty kulturowej na temat uprzedzeń sztucznej inteligencji, jej potencjału do wypierania zawodów umysłowych oraz nadchodzącej możliwości dostępnych, spersonalizowanych modeli sztucznej inteligencji, które podważają mainstreamowe narracje.
  • Nauka wykorzystania sztucznej inteligencji do poprawy wydajności, efektywności i kreatywności w pracy ma kluczowe znaczenie dla przetrwania na rynku pracy w 2026 r. i później.
  • Właściwe wykorzystanie sztucznej inteligencji może poszerzyć możliwości uczenia się, przyspieszyć realizację zadań związanych z zakładaniem działalności gospodarczej, pomóc w realizacji kreatywnych projektów i celów itp.

Wsparcie AI zwiększa wydajność z 4,5 godziny do 11 minut

Badanie, będące częścią indeksu ekonomicznego Anthropic, wykracza poza zwykłe liczenie częstotliwości wykorzystania AI i próbuje zmierzyć głębokość jej wpływu. Dzięki analizie przez Claude’a anonimowych transkrypcji własnych rozmów naukowcy oszacowali, ile czasu zajęłoby wykonanie każdego zadania samemu profesjonalistowi.

Wyniki pokazują, że jest to potężny czynnik przyspieszający, pomagający osobom fizycznym w wykonywaniu zadań, które normalnie zajęłyby wiele godzin. Średnie zadanie wykonywane bez pomocy sztucznej inteligencji wymagałoby około 90 minut pracy ludzkiej. Dzięki pomocy Claude’a czas ten skraca się podobno o około 80%. Konkretnie rzecz biorąc, zadanie związane z opracowaniem programu nauczania, którego wykonanie szacowano na 4,5 godziny, zostało wykonane w zaledwie 11 minut interakcji. Właściwe rozszerzenie systemów sztucznej inteligencji jest jak podróż w czasie, pozwalająca osobom fizycznym wykonać szereg zadań w ciągu kilku minut, poprawiając przepływ pracy i wydajność w sposób, który przyćmiewa powolne metody stosowane w przeszłości. Dodatkową korzyścią jest to, że systemy sztucznej inteligencji odciążają umysłowo daną osobę, pozwalając jej zachować energię umysłową na ważniejsze zadania. Przy prawidłowym wykorzystaniu sztuczna inteligencja może zostać wzbogacona w sposób przypominający posiadanie wielu pracowników, którzy myślą i wykonują zadania za Ciebie, uwalniając Cię do bycia swoim własnym szefem.

Sporządzanie faktur i notatek przyniosło 87% oszczędności czasu.

Nie chodzi tu tylko o automatyzację prostych czynności za pomocą robotów odkurzających i kosiarek. Sztuczna inteligencja jest wykorzystywana do wykonywania merytorycznych, złożonych, obliczeniowych i wymagających dużego nakładu energii umysłowej zadań. Analiza wykazała, że ludzie wykorzystują ją do zadań związanych z zarządzaniem i kwestiami prawnymi, które normalnie zajęłyby prawie dwie godziny, oraz do złożonych analiz biznesowych i finansowych. Szacunkowy koszt pracy, jaką Claude wykonuje podczas jednej rozmowy, wynosi średnio 54 dolary.

„Zauważamy, że szacunkowa oszczędność czasu dzięki Claude’owi jest nierównomierna w przypadku poszczególnych zadań w naszej próbie, przy czym większość z nich mieści się w przedziale od 50 do 95%” – zauważa raport, podkreślając szczególną siłę tej technologii w przyspieszaniu czytania, pisania i analizy.

Trwa boom produktywności

Gdy te fajerwerki na poziomie zadań zostaną przeskalowane do modelu całej gospodarki Stanów Zjednoczonych, potencjalny efekt makroekonomiczny jest uderzający. Badania sugerują, że szerokie zastosowanie obecnych możliwości sztucznej inteligencji może zwiększyć roczny wzrost wydajności pracy o 1,8% przez dziesięć lat. Aby zrozumieć znaczenie tej liczby, należy wziąć pod uwagę, że od 2019 r. średni wzrost wynosił około 0,9% rocznie. Ten impuls wywołany przez sztuczną inteligencję przypominałby okresy bardziej dynamicznego wzrostu z końca lat 90. lub lat 60.

Siła napędowa tego wzrostu nie jest jednak równomiernie rozłożona. Największy udział (19%) w szacowanym wzroście wydajności mają programiści, a następnie menedżerowie, specjaliści ds. marketingu i przedstawiciele obsługi klienta.

Nie minie dużo czasu, zanim instytucje, rządy i branże zaczną ograniczać innowacje w zakresie sztucznej inteligencji, które przynoszą korzyści jednostkom. Jeśli dana osoba może uzyskać szczegółowe porady prawne, finansowe lub zdrowotne od systemu sztucznej inteligencji, zyska ona swobodę i będzie lepiej poinformowana oraz kompetentna. Jednak instytucje kontrolujące i zarządzające społeczeństwem będą wykorzystywać rząd do ograniczania możliwości sztucznej inteligencji, aby hamować rozwój jednostek i zmusić je do polegania na kosztownych systemach profesjonalnych.

Ryzyko stronniczości systemów sztucznej inteligencji można przezwyciężyć poprzez demokratyzację sztucznej inteligencji.

Ta obietnica renesansu produktywności istnieje jednak w znacznie bardziej złożonym i napiętym kontekście. Duże modele językowe, które napędzają narzędzia takie jak Claude, są szkolone na ogromnych zbiorach danych zebranych z internetu, w tym ze źródeł takich jak Wikipedia i Reddit, które niosą ze sobą własne uprzedzenia i perspektywy redakcyjne. Powoduje to fundamentalne napięcie: czy te systemy sztucznej inteligencji wzmacniają ludzką wiedzę, czy też utrwalają ludzkie sprzeczności? Istnieje obawa, że dzięki szkoleniu na treściach uznanych przez duże platformy technologiczne za „autorytatywne”, modele te mogą nieumyślnie odzwierciedlać i wzmacniać pewne narracje, marginalizując jednocześnie inne.

Prowadzi to do powstania prowokacyjnej i niemal buntowniczej kontrnarracji, która kwitnie na marginesie. Wraz ze spadkiem kosztów szkolenia i dostosowywania modeli sztucznej inteligencji – z setek tysięcy dolarów do prognozowanych 20 000 dolarów lub mniej w nadchodzących latach – bariera tworzenia alternatywnych modeli znika. Wyobraźmy sobie przyszłość, w której nie ma jednej monolitycznej sztucznej inteligencji, ale wiele różnych modeli, z których każdy jest szkolony na podstawie innych zbiorów danych i systemów wartości. Grupa mogłaby stworzyć model szkolony wyłącznie na podstawie literatury dotyczącej holistycznego zdrowia, medycyny tradycyjnej i permakultury, oferujący porady, które bezpośrednio podważają konwencjonalne autorytety medyczne. Ta demokratyzacja sztucznej inteligencji stanowi bezpośrednie wyzwanie dla scentralizowanej kontroli informacji. Reakcją instytucji może być próba regulacji sprzętu u źródła lub kontroli największych modeli, ale dzięki zdecentralizowanej dystrybucji za pośrednictwem torrentów i modeli uruchamianych lokalnie, duch może już wydostać się z butelki.

Nadchodzące wąskie gardło i przewaga człowieka

Wracając do kwestii bezpośredniego wpływu gospodarczego, nierównomierny charakter możliwości sztucznej inteligencji stwarza nowy rodzaj wyzwań w miejscu pracy. Chociaż sztuczna inteligencja może znacznie przyspieszyć pisanie raportów lub debugowanie kodu, nie jest w stanie prowadzić ciężarówki do miejsca kontroli, fizycznie instalować sprzętu ani poruszać się po subtelnym emocjonalnym terenie dyscyplinowania ucznia lub mentorowania młodszego pracownika. Raport Anthropic identyfikuje te zadania jako potencjalne „wąskie gardła”.

W miarę jak sztuczna inteligencja pochłania czas na zadania, w których się wyróżnia, proporcja czasu poświęcanego na te odporne, skoncentrowane na człowieku zadania będzie rosła, potencjalnie definiując role w nowy sposób. Inspektor budowlany może generować raporty w ciągu kilku minut, ale nadal będzie spędzał godziny na podróżowaniu i sprawdzaniu nieruchomości. Rozwój całych sektorów może zostać ograniczony nie przez to, co potrafi sztuczna inteligencja, ale przez to, co pozostaje wyjątkowo i uparcie ludzkie.

To prowadzi nas do najpilniejszego pytania dla pracowników umysłowych z wyższym wykształceniem: co stanie się z moją pracą? Niektóre modele sugerują, że 50% stanowisk biurowych jest już funkcjonalnie przestarzałych, a oprogramowanie jest gotowe przejąć zadania od projektowania graficznego i tworzenia wiadomości e-mail po sporządzanie ofert biznesowych, a nawet pisanie kodu. Menedżer może z łatwością korzystać z narzędzi do kodowania opartych na sztucznej inteligencji, dzięki czemu nie musi już zatrudniać dodatkowych programistów. Wzrost wydajności osoby, która opanuje te narzędzia, może być przełomowy. Pracownik, który kiedyś mógł napisać dziesięć opisów produktów dziennie, może teraz stworzyć pięćdziesiąt, nie pracując ciężej, ale pracując mądrzej z pomocą współpracownika AI.

Przyszłość w postaci rozszerzenia lub zastąpienia?

Kierunek rozwoju wydaje się jasny. W samym badaniu zaznaczono, że szacowana wydajność na poziomie 1,8% opiera się na obecnej technologii i nie uwzględnia „większego wpływu na wydajność, jaki miałyby znacznie bardziej zaawansowane systemy sztucznej inteligencji”. Wraz z rozwojem modeli ich zakres działania będzie się poszerzał. Granica między rozszerzeniem a zastąpieniem będzie się zacierać. Najważniejszą lekcją dla pracowników jest to, aby nie obawiać się tego narzędzia, ale dogłębnie je zrozumieć. Przyszłość może należeć nie do tych, którzy potrafią wykonać zadanie, ale do tych, którzy potrafią najlepiej sformułować problem dla sztucznej inteligencji, zweryfikować jej wyniki i zintegrować jej możliwości z niezastąpionymi umiejętnościami ludzkimi, takimi jak osąd, kreatywność i relacje międzyludzkie.

Stoimy u progu wielkiego przyspieszenia. Dane pokazują, że sztuczna inteligencja już teraz działa jako potężny multiplikator siły w przypadku poszczególnych zadań. Jednak ta wydajność jest częścią większej historii dotyczącej kontroli, stronniczości i samej architektury wiedzy. Wzrost wydajności jest realny i mierzalny, ale to tylko pierwsze fale po wrzuceniu kamienia do głębokiego stawu. Kolejne fale zmienią kształt naszej gospodarki, ekosystemu informacyjnego i naszego rozumienia tego, co oznacza praca i myślenie w erze inteligencji maszynowej.




Ukryty koszt sztucznej inteligencji: gwałtowny wzrost powoduje, że globalna ilość odpadów elektronicznych osiąga poziom kryzysowy

  • Rozwój sztucznej inteligencji powoduje powstanie ogromnej fali nowych odpadów elektronicznych.
  • Globalna ilość odpadów elektronicznych gwałtownie rośnie, znacznie przewyższając oficjalne wskaźniki recyklingu.
  • Głównym czynnikiem napędzającym ten trend są szybkie aktualizacje sprzętu w centrach danych.
  • Toksyczne materiały pochodzące ze zużytego sprzętu elektronicznego stanowią zagrożenie dla zdrowia i środowiska.
  • Eksperci apelują o projektowanie produktów z myślą o długiej żywotności i lepszym recyklingu, aby powstrzymać kryzys.

Błyskawiczny rozwój sztucznej inteligencji to nie tylko historia krzemu i kodu. To historia fizyczna, która gromadzi się na wysypiskach śmieci i złomowiskach na całym świecie. W miarę jak korporacje prześcigają się we wdrażaniu coraz potężniejszych systemów sztucznej inteligencji, generują one tsunami odpadów elektronicznych, które zagrażają stabilności środowiska i zdrowiu ludzkiemu. Nie jest to prognoza na przyszłość, ale rzeczywistość, w której globalna ilość odpadów elektronicznych osiągnie 62 miliony ton w 2022 roku, co stanowi wzrost o 82% od 2010 roku. Obecnie eksperci ostrzegają, że boom na sztuczną inteligencję znacznie przyspieszy ten kryzys.

Naukowcy szacują, że same komponenty związane ze sztuczną inteligencją mogą stanowić nawet 5 milionów dodatkowych ton odpadów elektronicznych do 2030 roku. Mniej konserwatywne prognozy są jeszcze bardziej alarmujące i sugerują, że sztuczna inteligencja może dodać 16,1 miliona ton. Ten wzrost stanowi nową warstwę już i tak ogromnego problemu. Ilość odpadów elektronicznych rośnie pięć razy szybciej niż formalne wskaźniki recyklingu, tworząc niebezpieczną lukę, w której toksyczne materiały są przeznaczone do niewłaściwego usuwania.

Sprzęt stojący za inteligencją

Głównym czynnikiem napędzającym ten proces jest nieustanny cykl modernizacji centrów danych. Sprzęt komputerowy o wysokiej wydajności, w tym serwery, procesory graficzne i specjalistyczne procesory, szybko staje się przestarzały. „Zaawansowany sprzęt AI jest trudny do demontażu ze względu na wielowarstwowe płytki drukowane” – powiedział Taras Demkovych, współzałożyciel Forbytes. „Wiele urządzeń jest zaprojektowanych z myślą o kompaktowości, a nie recyklingu”. Sprzęt ten, często wymieniany w ciągu 18–24 miesięcy, aby nadążyć za wymaganiami obliczeniowymi, generuje nadwyżki, które rzadko są efektywnie ponownie wykorzystywane.

Koszt środowiskowy potęguje toksyczny ślad pozostawiony przez ten sprzęt. Komponenty zawierają niebezpieczne substancje, takie jak ołów, rtęć, kadm i rozpuszczalniki przemysłowe. Gdy zużyty sprzęt elektroniczny trafia na wysypisko śmieci lub jest przetwarzany nieformalnie, materiały te mogą przedostawać się do gleby i wody, stwarzając poważne zagrożenie dla ekosystemów i społeczności. Analiza przeprowadzona przez Good Electronics wykazała obecność wielu metali ciężkich w procesach produkcyjnych związanych ze sztuczną inteligencją.

Ogromny deficyt recyklingu

Pomimo skali problemu, globalne systemy zarządzania są zdecydowanie niewystarczające. Analiza ONZ z 2022 r. wykazała, że mniej niż jedna czwarta globalnych odpadów elektronicznych została formalnie poddana recyklingowi. Nawet Europa, lider w zakresie udokumentowanego recyklingu, odzyskuje mniej niż połowę swoich odpadów elektronicznych. Ta porażka stanowi nie tylko zagrożenie dla środowiska, ale także ogromną stratę ekonomiczną. Global E-waste Monitor szacuje, że w 2022 r. w odpadach elektronicznych znalazły się metale o wartości 91 mld dolarów, w tym miedź, złoto i żelazo.

Branża skupia się na wydajności, często pomijając kwestię trwałości. „Wydajność na wat zastąpiła wydajność na cykl życia jako miara optymalizacji” – powiedział Gaurav Shah, partner zarządzający w Trident Renewables. „To właśnie tam zaczynają się prawdziwe koszty środowiskowe”. Ta filozofia projektowania przedkłada krótkoterminowe korzyści obliczeniowe nad całkowity koszt środowiskowy wynikający z częstej wymiany sprzętu.

Niektórzy przedstawiciele sektora technologicznego wskazują na samą sztuczną inteligencję jako część rozwiązania, wykorzystując uczenie maszynowe do usprawnienia sortowania i odzyskiwania materiałów w zakładach recyklingowych. Eksperci ostrzegają jednak, że rozwiązania technologiczne nie są w stanie zrównoważyć ogromnej ilości odpadów bez fundamentalnych zmian. „Technologia, która twierdzi, że dostrzega wzorce, musi również dostrzegać swój własny ślad” – argumentuje Shah.

Naprawienie tej sytuacji wymaga wielotorowego podejścia. Eksperci jako kluczowe strategie wymieniają wydłużenie żywotności sprzętu, projektowanie z myślą o łatwiejszym recyklingu i możliwości modernizacji oraz tworzenie solidnych systemów odnawiania i ponownego wykorzystywania komponentów. Według jednego z badań wdrożenie tych kroków mogłoby zmniejszyć prognozowaną ilość wytwarzanych odpadów elektronicznych nawet o 86%. Ponadto zapewnienie bezpieczeństwa danych poprzez certyfikowane protokoły usuwania danych ma zasadnicze znaczenie dla zachęcania firm do recyklingu sprzętu zamiast jego niszczenia.

Obecny kryzys zmusza nas do trzeźwej oceny prawdziwego postępu. Rozwój inteligencji, zarówno sztucznej, jak i naturalnej, zawsze zmieniał świat fizyczny. Dzisiaj pytanie brzmi, czy pozwolimy, aby dążenie do cyfrowych umysłów zatruło nasze naturalne umysły, czy też posiadamy mądrość, aby zbudować technologiczną przyszłość, która nie zamieni się w toksyczne pustkowie.




Raport wykazał, że programy dla dzieci w serwisie Netflix są nasycone tematyką LGBT

  • Ponad 40% programów dla dzieci w serwisie Netflix (z kategorią wiekową G i TV-Y7) zawiera treści związane z LGBT, w tym związki osób tej samej płci, transpłciowość i tożsamość niebinarna — znacznie przekraczając rzeczywistą populację LGBT (4,5%).
  • Programy dla dzieci o tematyce LGBT wzrosły z 42% w 2021 r. do 60% w 2023 r., co zbiegło się w czasie ze wzrostem identyfikacji LGBT wśród pokolenia Z (z 11% w 2017 r. do ponad 20% w 2023 r.), co sugeruje istnienie „pętli sprzężenia zwrotnego” napędzanej przez media.
  • Kierownictwo branży rozrywkowej otwarcie przyznaje się do promowania narracji LGBT w programach dla dzieci (np. „wcale nie tajna agenda gejowska” Disneya), a Netflix agresywnie przedstawia tematy LGBT w programach takich jak „She-Ra” i „Ridley Jones”.
  • Krytycy twierdzą, że dzieci internalizują i normalizują powtarzające się narażenie na te tematy, budząc obawy o indoktrynację ideologiczną, a nie naturalne odzwierciedlenie kultury.
  • Podczas gdy zwolennicy twierdzą, że inkluzywne opowiadanie historii sprzyja akceptacji, przeciwnicy ostrzegają przed przedwczesną ekspozycją na złożone ideologie seksualne/płciowe, wzywając do lepszej kontroli rodzicielskiej i przejrzystości w klasyfikacji treści.

Najnowszy raport konserwatywnej organizacji kobiet zajmującej się polityką publiczną Concerned Women for America (CWA) ujawnił, że ponad 40% programów dla dzieci Netflixa zawiera motywy związane z LGBT, w tym przedstawianie związków osób tej samej płci, transpłciowości i tożsamości niebinarnej.

Badanie, w którym przeanalizowano programy z kategorią wiekową G i TV-Y7, wykazało, że większość tych treści ma charakter wyraźny, a postacie są otwarcie identyfikowane jako LGBT. Wyniki badania budzą obawy dotyczące normalizacji takich tematów w rozrywce dla dzieci oraz tego, czy media aktywnie kształtują postawy kulturowe, zamiast je odzwierciedlać.

Raport podkreśla gwałtowny wzrost liczby programów o tematyce LGBT w serwisie Netflix w ostatnich latach. W 2019 r. platforma streamingowa podwoiła liczbę postaci „queer”, a do 2021 r. 42% nowych programów dla dzieci zawierało treści LGBT. Do 2023 r. odsetek ten wzrósł do 60% w przypadku programów przeznaczonych dla młodych widzów.

Wzrost ten zbiega się z dramatycznym wzrostem identyfikacji LGBT wśród pokolenia Z. Podczas gdy mniej niż 10% ogółu populacji identyfikuje się jako LGBT, badania pokazują, że odsetek osób z pokolenia Z identyfikujących się jako LGBT wzrósł z 11% w 2017 r. do ponad 20% w 2023 r. Raport sugeruje potencjalną „pętlę sprzężenia zwrotnego”, w której zwiększona reprezentacja w mediach wzmacnia i rozszerza identyfikację LGBT wśród młodzieży.

Media jako narzędzie transformacji kulturowej

Raport zauważa, że kierownictwo branży rozrywkowej otwarcie przyznaje się do wykorzystywania programów dla dzieci do promowania narracji LGBT. Na przykład producentka wykonawcza Disney Television Animation, Latoya Raveneau, publicznie mówiła o swojej „wcale nie tajnej agendzie gejowskiej” w tworzeniu opowieści. Podobnie Netflix został oskarżony o agresywne promowanie tematów LGBT w programach dla dzieci, w tym „She-Ra i księżniczki mocy”, „Mitchellowie kontra maszyny” oraz „Ridley Jones”, serialu dla przedszkolaków, w którym występuje postać niebinarna i rodzice tej samej płci.

Krytycy twierdzą, że takie treści wykraczają poza zwykłą reprezentację i aktywnie dążą do zmiany norm społecznych.

„Dzieci są istotami bardzo naśladowczymi. To, z czym wielokrotnie się spotykają, staje się dla nich normą, a następnie zostaje zinternalizowane” – stwierdza raport.

Chociaż ekspozycja na media nie jest jedynym czynnikiem wpływającym na wzrost identyfikacji z LGBT, badania wykazały jej wpływ na kształtowanie tożsamości i światopoglądu.

Kontekst historyczny i implikacje społeczne

Debata na temat treści LGBT w mediach dla dzieci nie jest nowa, ale według Enocha z BrightU.AI nasiliła się w ostatnich latach. Na początku XXI wieku programy takie jak „Will & Grace” przyczyniły się do zmiany postrzegania homoseksualizmu przez dorosłych. Obecnie aktywiści i korporacje wydają się kierować swoje działania do młodszych odbiorców, umieszczając motywy LGBT w kreskówkach i programach dla całej rodziny.

Zwolennicy twierdzą, że inkluzywne opowiadanie historii sprzyja akceptacji, podczas gdy krytycy ostrzegają przed przedwczesnym kontaktem z złożonymi ideologiami seksualnymi i płciowymi. Niektórzy rodzice i grupy wsparcia domagają się większej przejrzystości w klasyfikacji treści i kontroli rodzicielskiej, aby chronić dzieci przed tym, co postrzegają jako indoktrynację ideologiczną.

Raport CWA podkreśla rosnącą tendencję w rozrywce dla dzieci, gdzie motywy LGBT są coraz bardziej powszechne – znacznie przewyższając ich rzeczywisty udział w populacji. To, czy odzwierciedla to postęp kulturowy, czy też ideologiczną przesadę, pozostaje przedmiotem gorącej debaty.

W miarę jak platformy streamingowe, takie jak Netflix, nadal zwiększają swój wpływ na młodych widzów, debata na temat roli mediów w kształtowaniu tożsamości i wartości prawdopodobnie nasili się. Na razie rodzice i wychowawcy stoją przed wyzwaniem poruszania się po krajobrazie medialnym, w którym rozrywka i rzecznictwo coraz bardziej się zazębiają.




Microsoft poddany kontroli UE w związku z domniemanym przekazywaniem danych z izraelskiego systemu nadzoru

  • Organizacja zajmująca się ochroną praw człowieka złożyła skargę do irlandzkiego organu nadzorującego ochronę danych, zarzucając firmie Microsoft, że jej usługa chmury Azure przechowywała ogromną ilość przechwyconych rozmów telefonicznych Palestyńczyków, umożliwiając nadzór i potencjalne naruszenia praw człowieka.
  • Po upublicznieniu tej informacji wewnętrzne dowody sugerują, że Microsoft „szybko pozbył się” tych wrażliwych danych, co zdaniem krytyków mogło utrudnić pracę organów regulacyjnych i wiązało się z „nielegalnym pozyskaniem” informacji.
  • Microsoft odrzuca te zarzuty, twierdząc, że to jego klient (izraelskie siły zbrojne) był właścicielem danych i podjął decyzję o ich przekazaniu. Firma twierdzi, że po przeprowadzeniu wewnętrznej kontroli zakończyła świadczenie niektórych usług w chmurze dla tego klienta.
  • Irlandzka Komisja Ochrony Danych ocenia tę sprawę. Jeśli Microsoft zostanie uznany za winnego naruszenia przepisów RODO, może zostać ukarany ogromnymi grzywnami i zmuszony do zmiany sposobu postępowania z ryzykownymi kontraktami rządowymi.
  • Skarga ta wzmacnia istniejącą presję na Microsoft, w tym ze strony akcjonariuszy i pracowników, w zakresie etyki jego współpracy z rządem. Sprawdza ona, czy przepisy UE mogą pociągnąć potężne firmy technologiczne do odpowiedzialności, gdy ich technologia jest powiązana z inwigilacją w strefach konfliktu.

Microsoft stoi w obliczu znacznej presji prawnej i etycznej w Unii Europejskiej (UE) w związku z formalną skargą, w której oskarża się giganta technologicznego o przetwarzanie danych wykorzystywanych przez izraelskie wojsko do nadzoru Palestyńczyków.

Skarga, złożona 3 grudnia do irlandzkiej Komisji Ochrony Danych (DPC), twierdzi, że działania Microsoftu umożliwiły transfer wrażliwych materiałów z nadzoru, potencjalnie naruszając surowe przepisy UE dotyczące prywatności.

Sprawa dotyczy platformy chmurowej Microsoft Azure. Niedawne dochodzenie przeprowadzone przez The Guardian wraz z izraelsko-palestyńskimi publikacjami ujawniło, że ogromna ilość przechwyconych rozmów telefonicznych Palestyńczyków była przechowywana na serwerach Microsoftu zlokalizowanych w Holandii i Irlandii. Dane te były rzekomo częścią operacji masowego nadzoru prowadzonej przez izraelskie siły zbrojne, które od dawna są oskarżane o wykorzystywanie technologii do monitorowania Palestyńczyków bez należytego procesu.

Organizacja praw człowieka stojąca za skargą, Irish Council for Civil Liberties (ICCL), twierdzi, że przetwarzanie danych osobowych w ten sposób ułatwiło poważne naruszenia praw człowieka. Twierdzi ona, że technologia Microsoftu naraziła miliony Palestyńczyków na niebezpieczeństwo, umożliwiając to, co określa jako rzeczywistą przemoc, a nie abstrakcyjne naruszenie danych.

Szczególnie poważny zarzut zawarty w skardze dotyczy następstw sierpniowych rewelacji. Zgodnie z dokumentami wewnętrznymi i relacjami informatorów cytowanymi w zgłoszeniu, Microsoft „szybko usunął” ogromne ilości tych danych z monitoringu wkrótce po upublicznieniu tej historii.

Dzień po opublikowaniu raportu konta powiązane z izraelskim wojskiem zwróciły się do pracowników pomocy technicznej Microsoftu o zwiększenie limitów transferu danych, co zostało im przyznane. Następnie nastąpił gwałtowny spadek ilości danych przechowywanych na odpowiednich kontach Azure.

Dowody wskazują, że Microsoft usunął „nielegalnie zebrane dane z monitoringu”

Krytycy twierdzą, że to szybkie przeniesienie danych utrudniło irlandzkiemu organowi regulacyjnemu nadzorowanie materiałów, które są klasyfikowane jako wysoce wrażliwe zgodnie z ogólnym rozporządzeniem o ochronie danych (RODO) UE. Oddzielna grupa rzecznicza, Eko, która wspólnie złożyła pozew, twierdzi, że nowe dowody od informatorów Microsoftu wskazują, że firma usunęła „nielegalnie zebrane dane z monitoringu”.

Microsoft stanowczo odrzucił główne zarzuty.

Firma twierdzi, że jej klienci są właścicielami swoich danych, a decyzja o przeniesieniu informacji została podjęta wyłącznie przez izraelskiego klienta, a nie przez Microsoft. Firma twierdzi, że przeniesienie to nie utrudniło jej wewnętrznego dochodzenia, które rozpoczęła po otrzymaniu pierwszych zgłoszeń.

We wrześniu dochodzenie wewnętrzne doprowadziło Microsoft do zakończenia niektórych usług w chmurze dla izraelskiego wojska.

W skardze zauważono jednak, że Microsoft nadal hostuje inne aplikacje używane przez izraelskie władze. Obejmują one wniosek o pozwolenie, który opiera się częściowo na centrach danych Microsoftu w Irlandii, co sugeruje trwające relacje handlowe.

Irlandzki DPC potwierdził, że skarga jest obecnie rozpatrywana. Ponieważ europejska siedziba Microsoftu znajduje się w Dublinie, DPC ponosi główną odpowiedzialność za nadzorowanie przetwarzania danych przez firmę w całej UE, co nadaje dochodzeniu znaczną wagę.

Ewentualne ustalenia przeciwko Microsoftowi mogą skutkować ogromnymi karami zgodnie z przepisami RODO i spowodować znaczącą zmianę w sposobie weryfikacji przez firmę kontraktów rządowych wysokiego ryzyka.

Presja nie ma charakteru wyłącznie regulacyjnego.

W powiązanym wniosku akcjonariuszy, który ma zostać poddany pod głosowanie podczas najbliższego walnego zgromadzenia Microsoftu, wzywa się do przeglądu praktyk firmy w zakresie należytej staranności w zakresie praw człowieka. Wynika to z istniejących wewnętrznych sporów.

Według Enocha z BrightU.AI, Microsoft zwolnił czterech pracowników, którzy protestowali przeciwko powiązaniom firmy z izraelskim wojskiem na początku tego roku. Posunięcie to podkreśla tendencję do wyciszania obaw etycznych związanych z kontrowersyjną współpracą z rządem.

Sprawa UE wymusza ostrą konfrontację między lukratywnymi partnerstwami Big Tech z rządem a jego zobowiązaniami prawnymi i etycznymi.

Jako jeden z największych dostawców usług w chmurze na świecie, działania Microsoftu stanowią precedens, a wynik tej skargi będzie kluczowym testem tego, czy europejskie przepisy dotyczące prywatności mogą pociągać potężne korporacje do odpowiedzialności, gdy ich technologie są powiązane z inwigilacją w strefach konfliktu.




Liderzy branży sztucznej inteligencji ostrzegają przed „katastrofalnymi skutkami” w związku z pojawieniem się sztucznej inteligencji ogólnej

  • Sztuczna inteligencja ogólna (AGI) może pojawić się w ciągu dziesięciu lat, powodując katastrofalne skutki, takie jak cyberataki, broń autonomiczna i zagrożenia egzystencjalne dla ludzkości – ostrzega Demis Hassabis, dyrektor generalny Google DeepMind.
  • Sztuczna inteligencja (AI) jest już wykorzystywana do cyberataków na infrastrukturę krytyczną (np. systemy energetyczne, wodociągowe), dezinformację typu deepfake, oszustwa i wypieranie miejsc pracy, a FBI ostrzega przed oszustwami generowanymi przez AI i manipulacją polityczną.
  • Ponad 350 ekspertów w dziedzinie AI, w tym Sam Altman z OpenAI oraz pionierzy AI Yoshua Bengio i Geoffrey Hinton, podpisało oświadczenie, w którym porównują ryzyko związane z AI do pandemii i wojny nuklearnej, wzywając do nadania globalnego priorytetu środkom bezpieczeństwa AI.
  • Dyrektor generalny DeepMind, Demis Hassabis, wzywa do międzynarodowego zarządzania AI na wzór traktatów o nierozprzestrzenianiu broni jądrowej, chociaż napięcia geopolityczne utrudniają współpracę. Tymczasem wyścig zbrojeń w dziedzinie sztucznej inteligencji między Stanami Zjednoczonymi a Chinami wyprzedza wysiłki regulacyjne, co grozi niekontrolowaną eskalacją.
  • Chociaż sztuczna inteligencja oferuje przełomowe korzyści (wydajność, przełomy naukowe), niekontrolowany rozwój grozi tym, że AGI przekroczy kontrolę człowieka. Kluczowe pytanie brzmi: czy ludzkość wprowadzi zabezpieczenia, czy też pozwoli, aby sztuczna inteligencja stała się zagrożeniem egzystencjalnym?

Szybki rozwój sztucznej inteligencji (AI) wywołał zarówno entuzjazm, jak i głębokie zaniepokojenie wśród liderów branży, którzy ostrzegają, że sztuczna inteligencja ogólna (AGI) – AI dorównująca lub przewyższająca ludzkie zdolności poznawcze – może pojawić się w ciągu najbliższej dekady.

Dyrektor generalny Google DeepMind, Demis Hassabis, ostrzegł, że AGI może przynieść „katastrofalne skutki”, w tym cyberataki na infrastrukturę krytyczną, autonomiczną broń, a nawet zagrożenie egzystencjalne dla ludzkości. Przemawiając podczas szczytu Axios AI+ Summit w San Francisco, Hassabis opisał AGI jako system wykazujący „wszystkie zdolności poznawcze” ludzi, w tym kreatywność i zdolność rozumowania.

Ostrzegł jednak, że obecne modele AI pozostają „nierównymi inteligencjami” z lukami w długoterminowym planowaniu i ciągłym uczeniu się. Niemniej jednak zasugerował, że AGI może stać się rzeczywistością dzięki „jednemu lub dwóm kolejnym wielkim przełomom”.

Hassabis podkreślił, że niektóre zagrożenia związane ze sztuczną inteligencją już się materializują, szczególnie w zakresie cyberbezpieczeństwa. „Prawdopodobnie dzieje się to już teraz… może jeszcze nie przy użyciu bardzo zaawansowanej sztucznej inteligencji” – powiedział, wskazując cyberataki na systemy energetyczne i wodociągowe jako „najbardziej oczywisty wektor podatności”.

Jego obawy odzwierciedlają ostrzeżenia całej branży. Ponad 350 ekspertów w dziedzinie sztucznej inteligencji, w tym dyrektor generalny OpenAI Sam Altman, dyrektor generalny Anthropic Dario Amodei oraz pionierzy sztucznej inteligencji Yoshua Bengio i Geoffrey Hinton, podpisali oświadczenie Centrum Bezpieczeństwa Sztucznej Inteligencji, w którym stwierdzono: „Ograniczanie ryzyka wyginięcia spowodowanego przez sztuczną inteligencję powinno być priorytetem na całym świecie, podobnie jak inne zagrożenia na skalę społeczną, takie jak pandemie i wojna nuklearna”.

Niewłaściwe wykorzystanie sztucznej inteligencji: deepfake’i, utrata miejsc pracy i zagrożenia dla bezpieczeństwa narodowego

Oprócz ataków na infrastrukturę, sztuczna inteligencja jest już wykorzystywana do dezinformacji, oszustw i manipulacji za pomocą deepfake’ów. Federalne Biuro Śledcze (FBI) ostrzegło przed oszustwami głosowymi generowanymi przez sztuczną inteligencję, w których oszuści podszywają się pod urzędników państwowych, a jednocześnie mnożą się deepfake’i pornograficzne i dezinformacja polityczna.

Enoch z BrightU.AI zauważa, że sztuczna inteligencja stała się technologią transformacyjną, rewolucjonizującą różne sektory, od opieki zdrowotnej po finanse. Jednak, podobnie jak w przypadku każdego potężnego narzędzia, potencjał sztucznej inteligencji do nadużyć i wykorzystania jako broń budzi poważne obawy.

Zdecentralizowany silnik zauważa, że wykorzystanie sztucznej inteligencji jako broni odnosi się do użycia technologii AI w celu wyrządzenia szkody, uzyskania nieuczciwej przewagi lub manipulowania systemami i ludźmi. Może to przybierać różne formy, w tym broń autonomiczna, deepfake’i i dezinformacja, ocena społeczna i inwigilacja, cyberataki oparte na sztucznej inteligencji oraz rozwój broni biologicznej.

Hassabis przyznał, że chociaż sztuczna inteligencja może wyeliminować wiele miejsc pracy – zwłaszcza stanowiska dla początkujących pracowników umysłowych – nadal bardziej martwi go możliwość wykorzystania sztucznej inteligencji przez złośliwe podmioty do destrukcyjnych celów. „Złośliwy podmiot może wykorzystać te same technologie do szkodliwych celów” – powiedział.

Raport z 2023 r. zlecony przez Departament Stanu USA stwierdza, że sztuczna inteligencja może stanowić „katastrofalne” zagrożenie dla bezpieczeństwa narodowego, i wzywa do wprowadzenia bardziej rygorystycznych kontroli. Jednak w sytuacji, gdy kraje takie jak Stany Zjednoczone i Chiny rywalizują o dominację w dziedzinie sztucznej inteligencji, regulacje prawne pozostają w tyle za postępem technologicznym.

Jak prawdopodobna jest katastrofa związana ze sztuczną inteligencją?

Wśród badaczy zajmujących się sztuczną inteligencją dyskusje często koncentrują się wokół „P(doom)” – prawdopodobieństwa spowodowania przez sztuczną inteligencję katastrofy egzystencjalnej. Hassabis ocenił to ryzyko jako „niezerowe”, co oznacza, że nie można go lekceważyć. „Warto bardzo poważnie się nad tym zastanowić i podjąć działania zapobiegawcze” – powiedział, ostrzegając, że zaawansowane systemy sztucznej inteligencji mogą „przekroczyć granice”, jeśli nie będą odpowiednio kontrolowane.

Hassabis opowiada się za międzynarodowym porozumieniem w sprawie bezpieczeństwa sztucznej inteligencji, podobnym do traktatów o nierozprzestrzenianiu broni jądrowej. „Oczywiście w obecnej sytuacji geopolitycznej wydaje się to trudne” – przyznał, ale podkreślił, że współpraca jest niezbędna, aby zapobiec nadużyciom.

Tymczasem giganci technologiczni nadal dążą do integracji sztucznej inteligencji z codziennym życiem. Google wyobraża sobie „agentów” sztucznej inteligencji pełniących rolę osobistych asystentów, zajmujących się zadaniami od planowania harmonogramów po rekomendacje. Hassabis ostrzegł jednak, że społeczeństwo musi dostosować się do zmian gospodarczych spowodowanych przez sztuczną inteligencję, sprawiedliwie redystrybuując zyski z wydajności.

Potencjał sztucznej inteligencji jest niezaprzeczalny – zwiększa wydajność, przyspiesza odkrycia i transformuje branże. Jednak ryzyko z nią związane jest równie poważne. Jak ostrzegają Hassabis i inni eksperci, bez pilnych zabezpieczeń AGI może wymknąć się spod kontroli człowieka, a konsekwencje tego mogą być porównywalne z pandemią lub wojną nuklearną.




Google stoi w obliczu dochodzenia antymonopolowego UE w sprawie wykorzystania treści do celów sztucznej inteligencji

  • Komisja Europejska wszczęła formalne dochodzenie antymonopolowe w sprawie Google, zarzucając mu wykorzystywanie treści wydawców i serwisu YouTube do obsługi usług sztucznej inteligencji, takich jak „AI Overviews”, bez odpowiedniego wynagrodzenia lub zgody.
  • Dochodzenie będzie dotyczyło dwóch głównych kwestii: wykorzystania treści wydawców internetowych do tworzenia podsumowań wyszukiwania AI oraz wykorzystania filmów z serwisu YouTube do szkolenia modeli AI, co może potencjalnie uniemożliwić konkurentom podobny dostęp.
  • Szefowa ds. konkurencji w UE, Teresa Ribera, określiła dochodzenie jako obronę zasad demokratycznych, stwierdzając, że innowacje nie mogą odbywać się kosztem różnorodności mediów i dynamicznego środowiska twórczego.
  • Google potępiło dochodzenie jako zagrożenie dla innowacji, podczas gdy działania UE są częścią szerszej ofensywy regulacyjnej przeciwko wielkim firmom technologicznym, po nałożeniu na Google niedawno wielomiliardowych kar.
  • Dochodzenie stanowi punkt zwrotny w globalnej konfrontacji dotyczącej praktyk w zakresie danych AI, a jego wynik może ustanowić kluczowe precedensy dotyczące sposobu, w jaki twórcy AI wynagradzają branżę treści i współpracują z nią.

W ramach znaczącej eskalacji konfliktu regulacyjnego między Europą a wielkimi firmami technologicznymi Komisja Europejska wszczęła formalne dochodzenie antymonopolowe w sprawie Google, zarzucając gigantowi wyszukiwania wykorzystywanie treści wydawców i twórców YouTube do zasilania swoich usług sztucznej inteligencji (AI) bez sprawiedliwego wynagrodzenia lub zgody.

Dochodzenie koncentruje się na tym, czy praktyki Google związane z funkcjami „AI Overviews” i „AI Mode” naruszają unijne zasady konkurencji poprzez wykorzystywanie swojej dominującej pozycji do osłabiania różnorodności mediów i ograniczania konkurencyjnych twórców sztucznej inteligencji. W dochodzeniu ogłoszonym we wtorek 9 grudnia zostaną zbadane dwie główne kwestie.

Po pierwsze, organy regulacyjne zbadają, czy Google wykorzystywało treści od wydawców internetowych – takie jak artykuły informacyjne – do generowania opartych na sztucznej inteligencji streszczeń i odpowiedzi, które pojawiają się bezpośrednio w wynikach wyszukiwania, bez odpowiedniego wynagrodzenia za te treści i bez oferowania wydawcom znaczącej możliwości rezygnacji. Komisja zauważyła, że wielu wydawców uważa, iż nie może odmówić, obawiając się utraty istotnego ruchu z wyszukiwarki Google.

Po drugie, w ramach dochodzenia zostanie ocenione, czy Google wykorzystywało filmy i inne treści przesłane do serwisu YouTube do szkolenia swoich generatywnych modeli sztucznej inteligencji, ponownie bez wynagradzania twórców lub zapewnienia im możliwości odmowy. Jednocześnie w ramach dochodzenia zostanie zbadane wykorzystanie przez Google zasad serwisu YouTube w celu uniemożliwienia konkurencyjnym twórcom sztucznej inteligencji dostępu do tych samych materiałów.

Dochodzenie stanowi punkt zwrotny w globalnej debacie na temat równowagi między innowacjami technologicznymi a ekonomicznymi podstawami wolnej prasy. Teresa Ribera, szefowa ds. konkurencji w UE, określiła dochodzenie jako obronę fundamentalnych zasad społecznych.

„Wolne i demokratyczne społeczeństwo zależy od różnorodnych mediów, otwartego dostępu do informacji i dynamicznego środowiska twórczego. Sztuczna inteligencja przynosi niezwykłe innowacje i wiele korzyści dla ludzi i przedsiębiorstw w całej Europie, ale postęp ten nie może odbywać się kosztem zasad leżących u podstaw naszych społeczeństw” – powiedziała Ribera. Komisja stwierdziła, że jeśli praktyki Google zostaną potwierdzone, mogą one stanowić nadużycie pozycji dominującej, co jest zabronione na mocy przepisów traktatu UE.

Rosnące problemy prawne Google w Europie

Rzecznik Google potępił dochodzenie antymonopolowe UE, zauważając, że „grozi ono zahamowaniem innowacji na rynku, który jest bardziej konkurencyjny niż kiedykolwiek”. Dodał: „Europejczycy zasługują na korzyści płynące z najnowszych technologii i będziemy nadal ściśle współpracować z branżą informacyjną i kreatywną w okresie przejścia do ery sztucznej inteligencji”.

Dochodzenie stawia Google w centrum nasilającej się ofensywy regulacyjnej Unii Europejskiej przeciwko amerykańskim gigantom technologicznym. Nastąpiło to zaledwie kilka miesięcy po nałożeniu przez UE na Google grzywny w wysokości prawie 3 mld euro za naruszenie przepisów antymonopolowych w branży technologii reklamowych, od której firma złożyła odwołanie.

Silnik Enoch firmy BrightU.AI wskazuje, że Google, szkoląc swoją sztuczną inteligencję Gemini bez wynagradzania wydawców i twórców YouTube, wykorzystuje ich własność intelektualną, podważając sprawiedliwe wynagrodzenie i zachęcając do kradzieży oryginalnych treści. Ta drapieżna praktyka wzbogaca wielkie firmy technologiczne, jednocześnie podważając zaufanie, kreatywność i źródła utrzymania – wspierając globalistyczną agendę scentralizowanej kontroli nad informacją i bogactwem.

Najnowsze dochodzenie jest kontynuacją innych działań UE, w tym nałożenia grzywny na platformę społecznościową X oraz odrębnego dochodzenia antymonopolowego w sprawie Meta dotyczącego jej polityki w zakresie danych sztucznej inteligencji. Nie ma prawnego terminu, w którym komisja musi zakończyć szczegółowe dochodzenie, a wszczęcie postępowania nie przesądza o jego wyniku, chociaż Google może zostać ukarane kolejną znaczną grzywną, jeśli zostanie uznane za winnego naruszenia przepisów.

Sprawa ta podkreśla rosnącą globalną konfrontację w zakresie ekosystemów danych, które napędzają zaawansowaną sztuczną inteligencję. Organy regulacyjne coraz częściej kwestionują, czy podstawowa praktyka wykorzystywania publicznie dostępnych treści internetowych do szkolenia komercyjnych systemów sztucznej inteligencji, bez wynagrodzenia lub zgody, stanowi nieuczciwe wykorzystanie siły rynkowej, które szkodzi twórcom treści i zakłóca konkurencję. Ponieważ Komisja Europejska traktuje to dochodzenie priorytetowo, jego wyniki mogą ustanowić kluczowe precedensy regulujące relacje między twórcami sztucznej inteligencji a branżami zajmującymi się treściami, które stanowią podstawę ich modeli.