Nanotechnologia to zestaw technik i sposobów tworzenia rozmaitych struktur o rozmiarach nanometrycznych, czyli na poziomie pojedynczych atomów i cząsteczek. Aktualnie każdy z nas ma z nimi styczność. Takie cząsteczki są wszechobecne, wszystko jest nimi skażone. Gdy dostają się do organizmu zaczynają działać jak odbiornik, co pozwala na łączenie się ich z komputerem kwantowym. Następuje rezonans, który kreuje idealną drogę do wysyłania oraz otrzymywania impulsów pomiędzy ciałem, a komputerem. Nie trudno sobie wyobrazić że dzięki tej technologii może następować kontrolowanie umysłu, manipulacja emocjami, zachowaniem danej istoty, jak i również otrzymywanie informacji zwrotnej w postaci wszelkich oznak życia, tego co dana osoba słyszy, czy widzi. Następnie te wszystkie dane renderowane są przez komputer oraz odpowiednie oprogramowanie AI, i monitorowane na bieżąco. Kluczem do funkcjonowania tego systemu jest oczywiście sieć 5G. To może wyjaśniać dlaczego jest tak wszechobecna, pomimo alarmujących wyników badań na temat jej szkodliwości oraz wpływie na ludzkie ciało.
Poniżej kilka słów na temat wybranych technologii, które mają na celu połączenie człowieka z maszyną.
Interfejs człowiek-mózg-chmura (tłumaczone fragmenty, link poniżej) Interfejs – w informatyce i elektronice to urządzenie pozwalające na połączenie ze sobą dwóch innych urządzeń, które bez niego nie mogłyby ze sobą współpracować. Natomiast internet jest globalnym systemem, który służy do generowania, przetwarzania i przechowywania danych, z których większość jest obsługiwana przez szybko rozwijającą się tak zwaną chmurę. Dlatego aby połączyć ze sobą mózg oraz wszelkie informacje jakie znajdują się we wspomnianej chmurze, potrzebny jest interfejs - stabilny, bezpieczny system czasu rzeczywistego, który pozwoli na połączenie chmury z ludzkim mózgiem. Ze względu na ogromną ilość danych przesyłanie danych do i z żywych ludzkich mózgów oraz chmury może prawdopodobnie wymagać użycia superkomputerów wyposażonych w algorytmy sztucznej inteligencji. Obecne superkomputery oparte na architekturze von Neumanna i wyposażone w ogromną liczbę procesorów są albo scentralizowane (składające się z dużej liczby dedykowanych procesorów), albo rozproszone (oparte na dużej liczbie oddzielnych komputerów rozproszonych w sieci, takiej jak Internet).
Oczekuje się, że przyszłe technologie neuronanorobotyki ułatwią dokładne diagnozowanie i ostateczne wyleczenie około 400 schorzeń wpływających na ludzki mózg. Neuronanorobotyka może również umożliwić kontrolowaną łączność między aktywnością neuronową a zewnętrznym przechowywaniem i przetwarzaniem danych, poprzez bezpośrednie monitorowanie neuronów i synaps w mózgu.
Neuronoroboty mogłyby pokonać barierę krew-mózg (BBB), przedostać się do miąższu mózgu, wniknąć do pojedynczych komórek a następnie bezprzewodowo przesyłałyby przetworzone i zakodowane informacje z ludzkiego mózgu do superkomputera w chmurze w celu monitorowania stanu mózgu i ekstrakcji danych w czasie rzeczywistym. Technologia ta może pozwolić na monitorowanie, rejestrowanie, a nawet manipulowanie wieloma rodzajami informacji związanych z mózgiem na poziomie komórkowym i organellarnym. Technologia neuronanorobotów umożliwia również wiele niemedycznych zastosowań, w tym znaczne wzmocnienie funkcji poznawczych człowieka poprzez utworzenie platformy, która oferować będzie bezpośredni dostęp do pamięci masowej i możliwości przetwarzania danych superkomputerów oraz interfejsu z systemami sztucznej inteligencji. Po wejściu do praktyki klinicznej lub zastosowań pozamedycznych technologie neuronanorobotyczne mogą działać równolegle z potężnymi systemami sztucznej inteligencji, superkomputerami i zaawansowaną produkcją molekularną. Co więcej, oczekuje się, że autonomiczne urządzenia nanomedyczne będą biokompatybilne, głównie ze względu na ich materiały strukturalne, które umożliwią dłuższe przebywanie w ludzkim ciele. Trwająca międzynarodowa współpraca "Nanofactory Collaboration" pod kierownictwem Roberta Freitas i Ralpha Merkle ma za główny cel zbudowanie pierwszej na świecie nanofabryki, która pozwoli na masową skalę produkcję zaawansowanych autonomicznych neuronorobotów z materiałów diamondoidalnych, które mogą zapewnić największą wytrzymałość, odporność i niezawodność. Dostarczenie nanocząstek do ludzkiego mózgu stanowi ogromne wyzwanie. Dlatego wielu badaczy próbuje znaleźć sposób jak pokonać barierę krew - mózg. Jedną z technologii, która może umożliwić interfejs z sieciami neuronowymi opartymi na mózgu, są nanocząsteczki magnetoelektryczne, które można wykorzystać do wzmocnienia sprzężenia między zewnętrznymi polami magnetycznymi a zlokalizowanymi polami elektrycznymi pochodzącymi z sieci neuronowych. Mogą one również indukować nanocząstki do przekraczania bariery krew-mózg (BBB) poprzez zastosowanie gradientu pola magnetycznego o stałym natężeniu do sklepienia czaszki. takie cząstki zostały już wykorzystane do kontrolowania mózgu myszy.
Tworzenie świadomości roju? Interfejs mózg-mózg polega na wzbudzeniu dwóch odrębnych mózgów do bezpośredniej komunikacji ze sobą. Systemy BTBI (brain to brain interface) zostały początkowo wdrożone u ludzi z wykorzystaniem nieinwazyjnych zapisów i stymulacji mózgu. Informacje były przekazywane z kory czuciowo-ruchowej jednego uczestnika do kory wzrokowej lub ruchowej drugiego uczestnika. Ostatnio zademonstrowano również szereg BTBI z udziałem różnych gatunków, na przykład poprzez połączenie mózgu człowieka z rdzeniem kręgowym znieczulonego szczura. Ludzkie mózgi połączono również z kulturami komórkowymi, eksperymentalnie wykazując, że aktywność mózgu może kontrolować ekspresję genów, wykorzystując BMI oparte na EEG do wyzwalania stymulacji optogenetycznej komórek projektowych, pośrednicząc w ten sposób w ich ekspresji genetycznej. Czy to nie jest alarmujące? Szczególnie intrygujące zastosowanie technologii BTBI, określane mianem "Brainetów", polega na łączeniu i przetwarzaniu sygnałów neuronalnych rejestrowanych z wielu mózgów, aby umożliwić wymianę informacji pomiędzy połączonymi mózgami w celu wykonywania zadań wymagających współpracy. Choć nie są jeszcze szczególnie wyrafinowane, niedawno zademonstrowane systemy Brainet dostarczyły już kilku interesujących spostrzeżeń, w tym weryfikacji potencjalnej bezpośredniej komunikacji między mózgami dwóch szczurów znajdujących się na różnych kontynentach, po tym jak szczurom na stałe wszczepiono mikroelektrody w korze sensomotorycznej. Niedawno opracowano trójludzki system BTBI, który pozwolił trzem ludzkim podmiotom na wspólne rozwiązywanie zadania przy użyciu nieinwazyjnej, bezpośredniej komunikacji mózg-mózg. Podobnie jak w przypadku dwuosobowego systemu BTBI, interfejs trzyosobowego systemu wykorzystywał EEG do rejestrowania sygnałów mózgowych od "Nadawców" oraz TMS do nieinwazyjnego dostarczania informacji do mózgu "Odbiorcy". Sygnały mózgowe dwóch "Nadawców" zostały zdekodowane przy użyciu analizy danych EEG w czasie rzeczywistym, wyodrębniając ich decyzje o obróceniu lub nieobróceniu bloku w grze przypominającej Tetris. Decyzje te były następnie przesyłane do chmury, a następnie pobierane i stosowane w mózgu "Odbiorcy" poprzez stymulację magnetyczną kory potylicznej. Po otrzymaniu tych informacji "Odbiorca", który nie widział ekranu gry, integrował je i podejmował decyzję o obróceniu lub nieobróceniu bloku.
Rzeczywistość wirtualna i rozszerzona. Czy miedzy światem „rzeczywistym” a wirtualnym mogą zatrzeć się granice? VR (virtual reality) to trójwymiarowy obraz rzeczywistości stworzony komputerowo. Wirtualna rzeczywistość może przedstawiać różne przedmioty, obiekty czy zdarzenia. W zależności od koncepcji, VR opiera się zarówno na elementach świata realnego, jak i całkowicie fikcyjnego. Określenie to oznacza po prostu wirtualną imitację rzeczywistości.
AR (augmented reality) - rzeczywistość rozszerzona to termin opisujący wszystkie technologie zdolne do graficznego włączenia elementów wirtualnych do świata rzeczywistego, a ponieważ obrazy postrzegane przez użytkownika są umieszczone w otaczającym go kontekście fizycznym, technologia ta umożliwia interakcję ze środowiskiem w czasie rzeczywistym.
Do tej pory by korzystać z tych cyfrowych rzeczywistości potrzebne były specjalne okulary czy gogle. Takie rozwiązania mogą już niebawem przejść do historii. Nanotechnologia może umożliwić kontrolowanie tego co widzimy bez użycia jakichkolwiek zewnętrznych urządzeń. zapewniając, na przykład, odpowiednie "wskazówki proksymalne". Sztucznie wywołane sygnały mogą być nieodróżnialne od rzeczywistych danych sensorycznych, które są odbierane z ciała fizycznego. Wszystkie sygnały wyjściowe mózgu mogą być tłumione przez neuronoroboty, aby uniknąć ruchu prawdziwych kończyn, ust lub oczu podczas doświadczeń wirtualnych; zamiast tego, wirtualne kończyny reagowałyby odpowiednio, dostosowując się do otaczającego wirtualnego świata w polu widzenia (podobnie do obecnych gier immersyjnych). Immersja w świecie gier to koncepcja, która polega na całkowitym zanurzeniu się gracza w wirtualnym świecie. Dobrze zrealizowana sprawia, że gracz czuje, jakby faktycznie był wewnątrz gry, pozwala uzyskać flow oraz odciąć się od świata zewnętrznego.
Użytkownicy będą mogli początkowo napotkać wirtualną tablicę rozdzielczą w chmurze, gdzie mogą wybrać z obszernego menu, które jest pełne ścieżek doświadczenia. Przemysł gier komputerowych zapewnia ludziom wirtualne środowiska do eksploracji, od odtworzenia rzeczywistych lokalizacji do fantazyjnych środowisk - nawet takich, które naruszają prawa fizyki. Wirtualne podróże w symulacjach "prawdziwych" miejsc pozwolą na ekwiwalent niemal natychmiastowej podróży w czasie. Ultra-wysoka rozdzielczość, w pełni wciągająca technologia VR może również usprawnić negocjacje biznesowe i randki internetowe, wśród innych zastosowań. Co wydaje się tu być bardzo niebezpieczne to to, że Świat "realny" i "wirtualny" mogą ewoluować tak, że ich rozróżnienie stanie się praktycznie niemożliwe.
Innym zastosowaniem neuronanorobotyki może być rozszerzona rzeczywistość - nakładanie informacji o świecie rzeczywistym na siatkówkę, aby zapewnić wskazówki w czasie rzeczywistym, wyjaśnienia lub dane dotyczące wydarzeń społecznych podczas podróży. Neuralnanorobotyka może zapewnić tłumaczenie słuchowe w czasie rzeczywistym języków obcych lub dostęp do wielu form informacji online, co pozwoli na włączenie tych udogodnień do naszych codziennych czynności. Niektóre rodzaje informacji mogą być prezentowane przez wirtualnych asystentów lub awatary, które nakładają się na świat rzeczywisty i pomagają swoim partnerom w wyszukiwaniu informacji. Tacy wirtualni asystenci, działający w chmurze, podobnie jak IBM Watson, mogą nawet nie czekać na pytania, jeśli będą w stanie przewidzieć ludzkie pragnienia na podstawie zarejestrowanych wcześniej wzorców zachowań i innych danych.
Ultrahigh-Resolution Fully Immersive “Transparent Shadowing”
Omawiane nanotechnologie w połączeniu z technologiami superkomputerowymi mogą pozwolić użytkownikom na przeżywanie w pełni wciągających epizodów z życia dowolnego chętnego uczestnika na naszej planecie w czasie rzeczywistym, poprzez nieinwazyjny "Transparent Shadowing (TS)". Chodzi o próbe połączenia ludzkiej kory nowej z syntetyczną korą nową w chmurze za pośrednictwem neuronów - nanorobotyki” W TS, osoba może dosłownie doświadczyć życia innej osoby poprzez własne oczy, na z góry ustalony
czas trwania poprzez sesję "extra life". Z aktywnym neuronanorobotem jednostki mogłyby angażować się w TS dobrowolnych lub wynagradzanych „gospodarzy przestrzennych”. Zgodnie ze ścisłymi protokołami, akredytowani "gospodarze przestrzenni" zgodziliby się zezwolić jednemu lub wielu uczestnikom (prawdopodobnie w liczbie milionów) na dosłowne przeżycie części ich doświadczeń życiowych w określonym z góry czasie/harmonogramie. Takie sesje Transparent Shadowing mogłyby być podobne do dzisiejszych seminariów lub serii wykładów, gdzie wiedza lub specyficzne umiejętności gospodarza byłyby doświadczalnie przekazywane "uczestnikom". Pełna sfera zmysłowa (np. fizyczna obecność, wrażenia dotykowe, węchowe, wzrokowe, smakowe i słuchowe) byłaby doświadczana przez "uczestników", tak jakby zamieszkiwali oni ciało "przestrzennego gospodarza". Dostęp do pewnego poziomu wewnętrznych doświadczeń może być korzystny dla "uczestników" w kierunku przekazania procesów myślowych/zamierzeń gospodarza przestrzennego, które leżą u podstaw jego działań. Jest jednak prawdopodobne, że każda mowa własna "gospodarza przestrzennego" będzie zawierała jego najbardziej prywatne i intymne myśli. W związku z tym należy dokładnie zbadać, w jaki sposób te wypowiedzi mogą być selekcjonowane, aby uczestnicy nie mieli do nich wglądu, w jaki sposób zostanie to ustalone i przez kogo?. Jakie wypowiedzi będą dozwolone, a jakie będą uważane za niedozwolone? Aby taka ocena mogła się odbyć za pośrednictwem AI, autosugestie musiałyby być w jakiś sposób przetwarzane w czasie rzeczywistym/na bieżąco, ponieważ wszelkie zapisy w jakiejkolwiek formie najprawdopodobniej zostałyby uznane za wysoce nieetyczne. Może to oznaczać ustanowienie bardzo krótkiego (∼milisekundowego) opóźnienia, od gospodarza przestrzennego do uczestnika, aby umożliwić to praktycznie natychmiastowe sprawdzanie wypowiedzi. Gospodarz nie będzie miał mentalnej ani fizycznej percepcji, że jest "śledzony" przez uczestników. Dlatego też, w zasadzie, każdy na planecie wyposażony w tą technologię mógłby być zaangażowany jako "gospodarz przestrzenny" lub "uczestnik".
Sentient World Simulation W czerwcu 2007 roku na jednym z amerykańskich portali informacyjnych pojawił się artykuł, w którym można było przeczytać: „Departament Obrony USA (DOD) może już tworzyć twoją kopię w alternatywnej rzeczywistości, aby zobaczyć, jak długo możesz wytrzymać bez jedzenia i wody lub jak zareagujesz na telewizyjną propagandę… DOD rozwija równoległą rzeczywistość do planety Ziemia z miliardami indywidualnych „węzłów”, aby odzwierciedlić każdego mężczyznę, kobietę i dziecko między realną rzeczywistością a AR.” Wszystko zaczęło się w 2006 roku, gdy dr Alok Chaturvedi opublikował zarys swojej koncepcji w pracy naukowej zatytułowanej: „Sentient World Simulation: A Continuously Running Model of the Real World: A Concept Paper”. Ze wstępu wyżej wymienionego dokumentu możemy dowiedzieć się, że: „Celem Sentient World Simulation (SWS) jest zbudowanie syntetycznego lustra świata rzeczywistego z automatyczną ciągłą kalibracją w odniesieniu do aktualnych informacji ze świata rzeczywistego, takich jak najważniejsze wydarzenia, badania opinii publicznej, statystyki demograficzne, raporty ekonomiczne i przesunięcia trendów. Zdolność syntetycznego modelu świata rzeczywistego do wyczuwania, adaptacji i reagowania na rzeczywiste zdarzenia odróżnia SWS od tradycyjnego podejścia polegającego na konstruowaniu symulacji w celu zilustrowania zjawiska. Zachowania pojawiają się w świecie lustrzanym SWS i są obserwowane tak samo, jak w świecie rzeczywistym… SWS składa się z komponentów zdolnych do uchwycenia nowych zdarzeń w miarę ich występowania w dowolnym miejscu na świecie, skupienie się na dowolnym lokalnym obszarze syntetycznego świata oferuje wystarczającą ilość szczegółów. Innymi słowy, zbiór modeli tworzących syntetyczne środowisko obejmuje zachowania jednostek, organizacji, instytucji, infrastruktur i obszarów geograficznych, a jednocześnie wychwytuje trendy wynikające z interakcji pomiędzy podmiotami, jak również pomiędzy podmiotami a środowiskiem.”
Po opublikowaniu dokumentu koncepcyjnego nie trzeba było długo czekać na uruchomienie systemu. Do 2007 roku SWS zgromadził już ogromne ilości danych w 62 ze 195 krajów na Ziemi... Mamy 2023 rok, ilość zebranych danych zapewne przekracza wszelkie wyobrażenia. A jakie dane są zbierane? Wyszukiwania w Internecie, odwiedzane strony internetowe, e-maile wysłane i odebrane, aktywność w mediach społecznościowych (Facebook, Twitter itp.), aktywność na blogach (w tym posty przeczytane, napisane i skomentowane), filmy obejrzane i/lub przesłane online, zdjęcia oglądane i/lub przesyłane online, dane lokalizacji GPS telefonu komórkowego, pobrane aplikacje na telefony komórkowe, zapisy rozmów telefonicznych, wysłane i odebrane wiadomości tekstowe, rozmowy wideo, zakupy online i transakcje, transakcje kartą kredytową/debetową, informacje finansowe, legalne dokumenty, dokumenty podróżne, książeczki zdrowia, programy telewizji kablowej oglądane i nagrywane, elektroniczne bilety autobusowe i metro / Smartpassy, dane rozpoznawania twarzy z kamer monitoringu, zapisy edukacyjne, akta aresztowania, informacje o prawie jazdy, DNA… Ta lista prawdopodobnie nie ma końca. Czyli praktycznie każda informacja, która nas dotyczy wykorzystywana jest do tego, by tworzyć nam awatara w równoległym, cyfrowym matriksie.
Projekt Sentient World Simulation (SWS) jest oparty na Synthetic Environment for Analysis and Simulations (SEAS). Ostatecznym celem wyznaczonym przez dr Chaturvedi jest stworzenie stale działającego, stale aktualizowanego lustrzanego modelu świata rzeczywistego, który może być wykorzystany do przewidywania i oceny przyszłych wydarzeń i sposobów działania. SWS będzie reagował na rzeczywiste wydarzenia, które mają miejsce w dowolnym miejscu na świecie i będzie uwzględniał nowo pozyskane dane ze świata rzeczywistego. Ponieważ modele wpływają na siebie nawzajem i na wspólne środowisko syntetyczne, w świecie syntetycznym pojawiają się zachowania i trendy, tak jak w świecie rzeczywistym. Trendy w świecie syntetycznym można analizować w celu potwierdzenia alternatywnych światopoglądów. Informacje można łatwo wyświetlać i łatwo przechodzić z jednego punktu ciężkości na drugi, wykorzystując szczegółowe modelowanie, takie jak modelowanie na poziomie inżynieryjnym, do modelowania na poziomie strategicznym, teatralnym lub kampanii. Dzięki zgromadzeniu odpowiedniej ilości informacji SWS jest w stanie stworzyć realistyczne symulacje różnych scenariuszy, takich jak klęski żywiołowe, ataki zagraniczne i krajowe, niedobory zasobów i niebezpieczne trendy ekonomiczne. Program, po ukończeniu, będzie wykorzystywał informacje ze swojej kolosalnej bazy danych do tworzenia tych hipotetycznych sytuacji, przewidywania możliwych wyników i testowania skuteczności różnych reakcji. Główne źródło: https://www.frontiersin.org/articles/10.3389/fnins.2019.00112/full Pozostałe linki: - https://organised-crime-of-covert-electronic-assault-nz.com/wp-content/uploads/2019/09/Sentient-World-Simulation-SWS-A-Continuously-Running-Model-of-the-Real-World.pdf - https://www.mcgill.ca/brain/files/brain/jan_28_the_human_brain_project.pdf - https://rumble.com/v2er0a6-the-new-world-order-2020-a-cybernetic-hive-mind-matrix-controlled-by-avatar.html - https://www.youtube.com/watch?v=jcVE1zGi9dY&t=465s - https://www.youtube.com/watch?v=-wqQMGNNYuA - https://gregorylessinggarrett.substack.com/p/sws-sentient-world-simulation Opracowanie: Oliwia
Korekta: Olita
コメント