Dlaczego sztuczna Inteligencja AI może nigdy nam nie dorównać?
[2023.12.08] Nie można wykluczyć, że w przyszłości sztuczna inteligencja będzie w stanie osiągnąć na pewnych płaszczyznach poziom ludzkiej inteligencji, ale obecnie istnieje wiele ograniczeń technologicznych i kulturowych, które sprawiają, że taka równość jest mało prawdopodobna.
Wymieńmy kilka kluczowych braków po stronie AI – przynajmniej tego jak wygląda w chwili obecnej, choć trzeba też zaznaczyć, że zmienia się ona z każdym dniem:
- Brak świadomości i intuicji: Sztuczna inteligencja, choć potrafi wykonywać skomplikowane obliczenia i analizować ogromne ilości danych, nie ma świadomości ani intuicji, które są kluczowe dla ludzkiego myślenia i działania.
- Brak emocji i empatii: Sztuczna inteligencja nie jest w stanie odczuwać emocji ani wykazywać empatii, co jest ważnym elementem ludzkiego zachowania i interakcji społecznej.
- Brak kreatywności: Chociaż sztuczna inteligencja może generować nowe rozwiązania na podstawie danych, nie jest w stanie tworzyć czegoś zupełnie nowego w sposób kreatywny, jak czyni to ludzki umysł.
- Brak ludzkiego doświadczenia: Sztuczna inteligencja operuje jedynie na podstawie dostępnych danych i algorytmów, nie posiada jednak ludzkiego doświadczenia i intuicyjnego zrozumienia świata.
- Etyczne i moralne dylematy: Sztuczna inteligencja nie ma moralnych czy etycznych wartości, co może prowadzić do problemów w podejmowaniu decyzji czy rozstrzyganiu dylematów etycznych.
Fascynujący artykuł „Pusty mózg” z AEON – Aeon jest magazynem cyfrowym, publikującym niektóre z najgłębszych i najbardziej prowokacyjnych myśli w Internecie:
[Październik 2023] „…Bez względu na to, jak bardzo badacze mózgu i psychologowie poznawczy bardzo się starają, nigdy nie znajdą w mózgu kopii V Symfonii Beethovena – ani kopii słów, obrazów, reguł gramatycznych ani żadnych innych bodźców środowiskowych. Oczywiście ludzki mózg nie jest tak naprawdę pusty. Ale nie zawiera większości rzeczy, o których ludzie myślą, że zawiera – nawet prostych rzeczy, takich jak „wspomnienia”.
Nasze tandetne myślenie o mózgu ma głębokie korzenie historyczne, ale wynalezienie komputerów w latach czterdziestych XX wieku wprawiło nas szczególnie w zakłopotanie. Już od ponad pół wieku psychologowie, lingwiści, neurobiolodzy i inni eksperci zajmujący się ludzkimi zachowaniami twierdzą, że ludzki mózg działa jak komputer.
Aby przekonać się, jak bezsensowny jest ten pomysł, przyjrzyjmy się mózgom dzieci. Dzięki ewolucji noworodki ludzkie, podobnie jak noworodki wszystkich innych gatunków ssaków, wkraczają w świat przygotowane do skutecznej interakcji z nim. Niemowlę widzi niewyraźnie, ale zwraca szczególną uwagę na twarze i szybko potrafi rozpoznać twarz swojej mamy. Woli dźwięki głosu od dźwięków innych niż mowa i potrafi odróżnić jeden podstawowy dźwięk mowy od drugiego…
Zdrowy noworodek wyposażony jest także w kilkanaście odruchów – gotowych reakcji na określone bodźce istotne dla jego przeżycia. Odwraca głowę w stronę czegoś, co muska jego policzek, a następnie ssie wszystko, co dostanie się do jego ust. Wstrzymuje oddech po zanurzeniu w wodzie. Chwyta przedmioty znajdujące się w jego rękach tak mocno, że niemal jest w stanie utrzymać własny ciężar. Być może najważniejsze jest to, że noworodki są wyposażone w potężne mechanizmy uczenia się, które pozwalają im szybko się zmieniać, dzięki czemu mogą coraz skuteczniej wchodzić w interakcje ze światem, nawet jeśli ten świat różni się od tego, z którym borykali się ich odlegli przodkowie.
Ale oto, z czym się nie rodzimy: informacja, dane, reguły, oprogramowanie, wiedza, leksykony, reprezentacje, algorytmy, programy, modele, pamięci, obrazy, procesory, podprogramy, kodery, dekodery, symbole lub bufory – elementy projektu, które pozwalają komputerom cyfrowym zachowywać się w miarę inteligentnie. Nie tylko nie rodzimy się z takimi cechami, ale także ich nie rozwijamy – nigdy.
Nie przechowujemy słów ani zasad, które mówią nam, jak nimi manipulować. Nie tworzymy reprezentacji bodźców wzrokowych, nie przechowujemy ich w buforze pamięci krótkotrwałej, a następnie nie przenosimy reprezentacji do urządzenia pamięci długotrwałej. Nie wydobywamy informacji, obrazów czy słów z rejestrów pamięci. Komputery robią to wszystko, ale organizmy nie…”
FUTURISM: W nowym eksperymencie małe dzieci rozwalają sztuczną inteligencję podczas wykonywania podstawowych zadań.
[Listopad 2023] „W przeciwieństwie do dużych modeli języka oraz języków i wzroku, dzieci są ciekawe, aktywne, samokontrolujące się i wewnętrznie zmotywowane”. Niedawne badanie wykazało, że ludzkie dzieci całkowicie miażdżą narzędzia sztucznej inteligencji w podstawowych zadaniach rozwiązywania problemów i myślenia, a naukowcy ustalili, że sztuczna inteligencja ma jeden poważny słaby punkt: INNOWACJĘ. ”
https://futurism.com/children-destroy-ai-basic-tasks
NEUROSCIENCE NEWS: Czy sztuczna inteligencja naśladuje świadomość, czy naprawdę staje się świadoma?
[Listopad 2023] „…Niezwykłe zdolności AI, takie jak te widoczne w ChatGPT, często wydają się świadome ze względu na ich interakcje przypominające ludzkie. Jednak badacze sugerują, że systemom Sztucznej Inteligencji brakuje zawiłości ludzkiej świadomości. Twierdzą, że systemy te nie posiadają ucieleśnionych doświadczeń ani mechanizmów neuronowych, jakie mają ludzie. Dlatego przyrównywanie możliwości sztucznej inteligencji do prawdziwej świadomości może być nadmiernym uproszczeniem.
Systemy artificial intelligence, pomimo swoich wyrafinowanych reakcji, nie mają ucieleśnionych doświadczeń charakterystycznych dla ludzkiej świadomości. Obecnym architektom sztucznej inteligencji brakuje podstawowych cech układu wzgórzowo-korowego, niezbędnych dla świadomej świadomości ssaków. neurony biologiczne odpowiedzialne za ludzką świadomość są znacznie bardziej złożone i elastyczne niż zakodowane neurony sztucznej inteligencji…”
https://neurosciencenews.com/ai-consciousness-neuroscience-25108
Magazyn Strategii Wojskowej: Czy stratedzy powinni martwić się filozofią sztucznej inteligencji?
[październik 2023] „(…) Chociaż systemy obsługujące sztuczną inteligencję udoskonalą się między innymi w takich obszarach, jak automatyczne rozpoznawanie celów, łączenie ludzi i maszyn w zespoły oraz zadania pół- i w pełni autonomiczne, zawsze będą one zawsze podatne na głupotę, potencjalnie katastrofalne błędy — to tylko kwestia prawdopodobieństwa ich popełnienia. Oznacza to, że stratedzy dostrzegają pilną potrzebę udoskonalenia, przyjęcia i wdrożenia wąskich systemów obsługujących sztuczną inteligencję, ponieważ ich wdrożenie w świecie rzeczywistym nigdy nie dorówna średnio- i długoterminowym ambicjom, jakie wyznaczyli im ludzie.
Co więcej, systemy sztucznej inteligencji nigdy nie będą dynamicznie przenosić wiedzy z jednej domeny do drugiej, co oznacza, że pozostaną „wąskie”. Koncepcje przyszłych działań wojennych, takich jak „hiperwojna”, które wydają się opierać na maszynach wyposażonych w sztuczną inteligencję, poruszających się z niezwykłą szybkością i płynnością w różnych domenach oraz między sobą, są teraz i na zawsze science fiction.”
https://www.linkedin.com/feed/update/urn:li:activity:7115227718731935744
Bulletin of the Atomic Scientists: Sztuczna inteligencja i przyszłość sztuki wojennej. Amerykańscy oficerowie wojskowi mogą wyrazić zgodę na wykorzystanie technologii wojskowych wspomaganych sztuczną inteligencją, którym nie ufają. To poważny problem.
„Eksperci są zgodni, że przyszłe działania wojenne będą charakteryzowały się wykorzystaniem technologii wzbogaconych Sztuczną Inteligencją, zwłaszcza w pełni autonomicznych systemów uzbrojenia. Funkcje te – takie jak bezzałogowy statek powietrzny lub dron „Loyal Wingman” Sił Powietrznych Stanów Zjednoczonych – umożliwiają identyfikację, śledzenie i ściganie celów bez nadzoru człowieka. Niedawne użycie tych śmiercionośnych autonomicznych systemów broni w konfliktach – w tym w Gazie, Libii, Górskim Karabachu i na Ukrainie – rodzi ważne pytania prawne, etyczne i moralne.
Pomimo ich stosowania nadal nie jest jasne, w jaki sposób technologie wojskowe wzmocnione sztuczną inteligencją mogą zmienić charakter i dynamikę działań wojennych. Osoby najbardziej zaniepokojone wykorzystaniem sztucznej inteligencji do celów wojskowych przewidują dystopijną przyszłość lub „apokalipsę sztucznej inteligencji”, w której maszyny dojrzeją na tyle, aby zdominować świat. Jeden z analityków politycznych przewiduje nawet, że śmiercionośne autonomiczne systemy uzbrojenia „doprowadzą do sejsmicznej zmiany w porządku światowym, znacznie większej niż ta, która nastąpiła wraz z wprowadzeniem broni nuklearnej”. Inni obserwatorzy kwestionują zakres, w jakim systemy sztucznej inteligencji mogłyby realistycznie przejąć kontrolę nad ludźmi, biorąc pod uwagę złożoność modelowania inteligencji biologicznej za pomocą algorytmów. Zakładając, że takie rozszerzenie sztucznej inteligencji jest możliwe, siły zbrojne, które na niej polegają, są obciążone kosztami danych i ocen, które prawdopodobnie „sprawiają, że element ludzki na wojnie staje się jeszcze ważniejszy, a nie mniej”.
Najnowsze badania wskazują, że tzw. „sztuczna inteligencja” ma nie dające się przeskoczyć ograniczenia intelektualne – mówiąc wprost: jest dużo głupsza niż nam się wydawało.
Udało się to udowodnić grając ze sztuczną inteligencją w GO (jap. 碁 – go lub 囲碁 – igo, chiń. 圍棋 – wéiqí, kor. 바둑 – baduk, paduk) – starochińska gra planszowa, popularna również w Korei i Japonii, a w ostatnich latach zdobywająca rosnącą popularność na całym świecie (w tym także w Polsce). Przeciwnikiem człowieka było KataGo – darmowy komputerowy program Go o otwartym kodzie źródłowym, reklamowany jako „zdolny do pokonania ludzkich graczy najwyższego poziomu”.
[Sierpień 2023] Okazuje się, że nie trzeba być geniuszem, aby nakłonić genialny system AI do popełnienia głupich błędów. Kilka dni temu pojawiła się praca naukowa pod znamiennym tytułem „Adversarial Policies Beat Superhuman Go AIs”, której autorzy wskazują:
„Atakujemy najnowocześniejszy system sztucznej inteligencji do gry w Go o nazwie KataGo, trenując przeciwko niemu i osiągając ponad 97% wygranych przeciwko KataGo działającemu w trybie superhuman. Nasi przeciwnicy nie wygrywają, grając dobrze w Go. Zamiast tego, oszukują KataGo, doprowadzając go do poważnych błędów. Nasz atak przenosi się automatycznie na inne sztuczne inteligencje grające w Go na poziomie superhuman i jest zrozumiały do tego stopnia, że eksperci ludzcy mogą go stosować bez wsparcia algorytmicznego, aby konsekwentnie pokonywać sztuczne inteligencje na poziomie superhuman. Podstawowa podatność odkryta przez nasz atak utrzymuje się nawet w przypadku agentów KataGo trenowanych przeciwnie, aby bronić się przed naszym atakiem. Nasze wyniki pokazują, że nawet systemy sztucznej inteligencji na poziomie superhuman mogą być zaskakująco łatwo zwodzone„.
Właśnie dlatego w czasach kiedy grę w szachy opanowały komputery arcymistrzem jest Sven Magnus Øen Carlsen. Grać trzeba z furią i pasją, wykonując zaskakujące posunięcia, które wytrącają przeciwko z rytmu, a nie te posunięcia co do których analiza statystyczna wskazuje, że są najbardziej bezpieczne.
Wybór cytatów opracował Robert Nogacki. W sporządzaniu komentarzy uczestniczył ChatGPT. Treści opracowane w dniu 8 grudnia 2023 r. Kto wie czy jutro również będą aktualne? AI zmienia się codziennie.