UXAIRFORCE

Od robaka do człowieka – pięć przełomów ewolucyjnych, które budują inteligencję #EN278

A

Adam Michalski

20 września 2025

TL;DR

  • 600 milionów lat ewolucji mózgu przeszło przez pięć kluczowych przełomów – od prostej nawigacji po teorię umysłu
  • Pierwsze mózgi były mikroskopijne – 302 neurony u nematody wystarczyły do podejmowania złożonych decyzji i uczenia się
  • Wzmacnianie uczenia powstało u ryb 550 mln lat temu – ich mózg implementuje algorytm TD-learning odkryty przez Richarda Suttona
  • Ssaki nauczyły się symulować przyszłość – szczury dosłownie „odtwarzają film” w głowie przed podjęciem decyzji
  • Problem AI nie jest w algorytmach ale w ciągłym uczeniu – modele zapominają stare umiejętności ucząc się nowych
  • AGI może być mitem – różne stopnie generalizacji zamiast jednego uniwersalnego rozwiązania
  • Etyczna bomba zegarowa – nie wiemy jak określić, kiedy AI zasługuje na prawa moralne

Dlaczego warto poznać historię ewolucyjną inteligencji

Max Bennett, współtwórca Bluecore i autor książki o ewolucji inteligencji, łączy trzy różne dziedziny nauki. Neurobiologia ewolucyjna, psychologia porównawcza i sztuczna inteligencja – razem tworzą mapę rozwoju myślenia.

Zamiast szukać jednej, uniwersalnej definicji inteligencji, Bennett proponuje inne podejście – prześledzenie jej fascynującej historii ewolucyjnej. Historia naturalnej inteligencji jest najlepszą mapą drogową do budowy tej sztucznej.

W Bluecore komercjalizował modele uczenia głębokiego dla handlu elektronicznego. Systemy rekomendacyjne, segmentacja klientów. To było jeszcze przed erą transformerów.

Jego obserwacja jest brutalna. Proste rzeczy dla człowieka były niezwykle trudne dla AI. Nawet podstawowy zdrowy rozsądek o układaniu strojów – niemożliwe dla ówczesnych modeli.

Bennett zaczął korespondować z neuroscientystami. Czytał podręczniki, publikował artykuły. Znalazł mentorów – Dilip George, Carl Friston, Joseph LeDoux, David Reddish. Pomogali mu odsiać głupie pomysły od wartościowych.

Pierwszy przełom – steering (600 mln lat temu)

Świat przed mózgami

Bennett opisuje Ziemię sprzed 600 milionów lat. Życie kryło się w oceanach. Lądy były puste, bez drzew i roślin. Panowały tam koralowce i meduzy – stworzenia bez mózgów.

Te pierwotne zwierzęta miały tylko sieci nerwowe. Proste odruchy działały niezależnie. Czekały na jedzenie, które przypadkiem trafi na macki.

Narodziny mózgu w ziarnku ryżu

Pierwsze mózgi pojawiły się u małych robaków. Wielkość ziarnka ryżu. Symetryczne ciało, konsolidacja neuronów w „głowie”.

Nematoda C. elegans ma zaledwie 302 neurony. Mimo to podejmuje złożone decyzje. Bennett pokazuje eksperyment – robak pokonuje toksyczną barierę miedzi, gdy po drugiej stronie czeka jedzenie.

Decyzja zależy od dwóch czynników. Koncentracji pokarmu i poziomu głodu. To wymaga integracji sygnałów w centralnym mózgu.

Nawigacja bez map i wzroku

Te pierwotne mózgi rozwiązały problem bez skomplikowanych zmysłów. Nie rozumiały otaczającego świata, ale potrafiły się w nim sprawnie poruszać.

Algorytm był prosty – nawigacja taksometryczna, czyli podążanie za gradientem chemicznym. Rosnąca koncentracja oznacza zbliżanie się do celu.

Problem w tym, że gradienty w prawdziwym świecie są zaszumione. Prądy wodne, inne zapachy. Nie ma czystego gradientu prowadzącego do źródła.

Z tego prostego mechanizmu wyłoniły się fundamenty inteligencji:

  • Klasyfikacja na „dobre” i „złe” (walencja)
  • Ewolucyjnie zakodowane preferencje
  • Podstawowy szablon emocji
  • Stany behawioralne przetrwające po bodźcu

Dopamina i Roomba

Bennett opisuje fascynujący system. Neurony dopaminowe u nematody wystają na zewnątrz ciała. Bezpośrednio wykrywają pokarm w środowisku.

Dopamina wyzwala stan poszukiwania. Robak zaczyna krążyć lokalnie, szukając więcej jedzenia. To wykorzystuje zasadę świata – pokarm często występuje skupiskowo.

Serotonina robi coś przeciwnego. Po spożyciu jedzenia wywołuje odpoczynek i nasycenie. Ten podstawowy podział przetrwał 600 milionów lat ewolucji.

Dokładnie ten sam algorytm implementuje Roomba. Funkcja Dirt Detect – gdy robot wykryje brud, przestaje normalnie jeździć i zaczyna krążyć lokalnie. Prawdopodobnie jest więcej brudu w pobliżu.

Drugi przełom – reinforcing (550 mln lat temu)

Rewolucja uczenia się metodą prób i błędów

Bennett przenosi nas do ery kambryjskiej. Eksplozja życia, gigantyczne stawonogi. Wśród nich małe rybopodobne kręgowce – nasze przodki.

Te stworzenia miały coś nowego. Rdzeń kręgowy, przodomózgowie, śródmózgowie. Struktury jak kora mózgowa i zwoje podstawy.

Ryby mają trójwarstwową korę mózgową. To zaskakuje wielu naukowców – myślą, że kora to wynalazek ssaków. Ale ryby już ją miały, tyle że prostszą.

Ryby można wytrenować do przeskakiwania przez obręcze. Nematody – nie. To fundamentalna różnica w uczeniu się.

Od Thorndike’a do Skinnera

Edward Thorndike początkowo chciał badać dzieci. Uczelnia nie zgodziła się. Badał więc kury. Był darwinistą – wierzył, że zasady uczenia są uniwersalne.

Szukał wglądu i uczenia przez naśladowanie. Nie znalazł. Zamiast tego odkrył „prawo efektu” – uczenie przez próby i błędy.

B.F. Skinner poszedł za daleko. Twierdził, że CAŁE uczenie to metoda prób i błędów. Późniejsze badania pokazały, że się mylił. Ale podstawowa obserwacja pozostała.

Problem Marvin Minsky’ego

Minsky w latach 50. stworzył SNARK (Stochastic Neural Analog Reinforcement Calculator). System uczący się przez wzmacnianie ostatnich zachowań.

To nie działało. Problem temporalnego przypisywania zasług. W szachach zwycięskie ruchy często są w środku gry, nie na końcu.

Odkrycie Richarda Suttona

Przełom przyszedł z algorytmu uczenia różnic czasowych. Wzmacnianie następuje przy zmianach oczekiwanej nagrody, nie przy samej nagrodzie.

W szachach uczysz się, gdy ruch dramatycznie poprawia pozycję. Nie wtedy, gdy wygrywasz. To pozwala uczyć się z odległych konsekwencji.

Pierwsza praktyczna aplikacja – TD-gammon. System grający w backgammona. Później szachy, warcaby, wszystko inne.

Zwoje podstawy – mozaikowa struktura

Bennett jest zachwycony zwojami podstawy. To jedna z najpiękniejszych struktur mózgu. Niezwykle klarowna w działaniu.

Mozaikowa struktura neuronów. Jedna część steruje działaniami, inna przewiduje nagrody. Wszystko pięknie posegregowane.

Dopamina wzmacnia lub hamuje połączenia. System uczy się, które akcje prowadzą do sukcesu.

Ten sam mechanizm działa od ryb po ludzi. Niezmieniony przez 550 milionów lat.

Ryby używają wektorów naprowadzających zamiast działań egocentrycznych. Nie uczą się „skręć w lewo przy tym bodźcu”. Uczą się „idź do tej lokalizacji w przestrzeni”. Bardziej odporne na zmianę pozycji startowej.

Trzeci przełom – simulating (150 mln lat temu)

Neokora i model generatywny

Bennett przenosi nas do ery dinozaurów. Małe ssaki, wielkości wiewiórki. W tym maleńkim mózgu ewoluuje neokora – sześć warstw neuronów zamiast trzech.

Neokora działa jak model generatywny. Dwa tryby pracy. Rozpoznawanie – porównywanie rzeczywistości z przewidywaniami. Generowanie – tworzenie własnych symulacji.

Dlaczego nie rozpoznawanie?

Ewolucyjna wartość nie leży w lepszym rozpoznawaniu. Ryby świetnie rozpoznają obiekty. Niektóre rozpoznają ludzkie twarze.

Przełom jest gdzie indziej. Możliwość symulowania stanów świata, które nie są obecne.

Iluzje wzrokowe jako dowód

Helmholtz w XIX wieku zaproponował „percepcję jako wnioskowanie”. Widzimy to, co najbardziej prawdopodobnie by tam było.

Kształt trójkąta w miejscu gdzie go nie ma. Dalmatyńczyk w plamach – dopóki ktoś nie powie „zobacz psa”, a wtedy nie możemy NIE widzieć.

Mózg renderuje najbardziej prawdopodobny stan świata. Porównuje z tym co widzi. Jeśli pasuje – używa tego jako prior.

Kora ruchowa – różnica między gatunkami

U szczura usunięcie kory ruchowej nie powoduje paraliżu. Szczur nadal chodzi normalnie.

U naczelnych – natychmiastowy paraliż. To fascynujące. Sugeruje, że kora ruchowa pierwotnie NIE kontrolowała ruchu.

Szczur bez kory ruchowej traci zdolność uczenia NOWYCH umiejętności ruchowych. Stare wykonuje bez problemu.

Szczury planujące przyszłość

David Reddish nagrywał neurony miejsca. Szczur rozgląda się i możemy dosłownie zobaczyć, jak planuje. Neurony miejsca aktywują się dla ścieżek, którymi szczur jeszcze nie poszedł.

To nie metafora. Naukowcy oglądają symulację przyszłości w czasie rzeczywistym.

Uczenie kontrafaktyczne u małp. Gra kamień przeciwko papierowi i przegrywa. Częściej gra nożyce w następnej rundzie. Symuluje: „gdybym zagrał nożyce, wygrałbym”.

Czwarty przełom – mentalizing (40 mln lat temu)

Trzy zdolności naczelnych

Bennett identyfikuje trzy umiejętności u małp:

  1. Teoria umysłu – rozumienie intencji i wiedzy innych
  2. Uczenie przez naśladowanie – kopiowanie z pełnym zrozumieniem
  3. Antycypacja przyszłych potrzeb – planowanie dla stanów, których nie doświadczamy

Eksperymenty z teorią umysłu

Szympans dostaje dwie pary okularów. Jedne przezroczyste, drugie nie. Po zabawie wybiera jedzenie od człowieka w przezroczystych okularach.

Emil Menzel i wojna podstępów. Belle znalazła jedzenie w akrowym lesie. Rock zaczął jej je zabierać. Belle czekała aż Rock odwróci wzrok. Rock zaczął udawać, że nie patrzy. Belle prowadziła go w złą stronę, potem wracała.

Cykl oszustwa i kontr-oszustwa. Możliwy tylko gdy manipulujesz wiedzą w cudzej głowie.

Uczenie przez naśladowanie i nauczanie

Naczelnych można nauczyć sztuczki z grabiami. Wróci do grupy. Wkrótce wszyscy używają tej samej techniki.

Są dowody, że szympansy UCZĄ. Korygują błędy młodych przy łowieniu termitów. Wymaga to rozumienia czyjejś wiedzy i jak ją zmienić.

Eksperyment z przyszłymi potrzebami

Małpy wiewiórkowate vs szczury. Wybór między wysoką nagrodą bez wody później, a niską nagrodą z wodą od razu.

Małpy wybierają niższą nagrodę. Wiedzą, że będą spragnione. Szczury – nie potrafią.

Jeden mechanizm – trzy zastosowania

Granularna kora przedczołowa modeluje własne modelowanie. Symulowanie własnej symulacji pozwala:

Wczuć się w innych – wyobrażając siebie w ich sytuacji. Uczyć się przez obserwację – symulując siebie wykonującego cudze działanie. Planować dla przyszłego siebie – wyobrażając siebie głodnym czy spragnionym.

Eksperyment z pisaniem historii

Ludzie z uszkodzonym hipokampem. Piszą historie o przyszłości. Brakuje szczegółów świata. Ale są w tych historiach.

Ludzie z uszkodzoną granularną korą przedczołową. Piszą bogate opisy świata. Ale zawsze brakuje ich samych w tych historiach.

To pokazuje – granularna kora przedczołowa to model siebie. Metapoznanie. Myślenie o myśleniu.

Co brakuje współczesnej AI

Klątwa katastroficznego zapominania

Bennett identyfikuje kluczowy problem. Dostrajanie modeli prowadzi do nadmiernego dopasowania. System zapomina stare umiejętności.

To nie drobna wada. To fundamentalny problem architektury.

Ssaki decydują, KIEDY aktualizować wagi. Prawdopodobnie w momentach zaskoczenia. Neuromodulatory uwalniają się tylko wtedy.

Odrzucanie nonsensów

Powiesz człowiekowi „1+1=4” i zacznie wyjaśniać. Nie przyjmie tego jak zbiór danych treningowych.

Desperacko szukamy, jak nowa informacja pasuje do modelu. Odrzucamy, jeśli nie pasuje. To źródło odporności.

AI przyjmuje każdy zbiór danych. Nawet sprzeczny z wcześniejszą wiedzą.

Brakujące ogniwo – minóg

Bennett żałuje braku badań. Minóg – najbardziej prymitywny kręgowiec. Nie wiemy czy ma nawigację opartą na mapach.

Gdyby nie miał, a kostnoszkieletowe ryby mają – pokazałoby to ważny kamień milowy między pierwszymi kręgowcami a szczękowcami.

Przyszłość systemów hybrydowych

Autonomiczne roboty będą miały podsystemy:

  • Sieć konwolucyjna do rozpoznawania obiektów
  • Model językowy
  • System pamięci epizodycznej
  • Mechanizmy planowania

Wyspecjalizowane moduły współpracujące. Nie jedna wielka sieć.

Ewolucyjna checklista zdolności AI

Pięć przełomów można przedstawić jako checklistę do oceny systemów AI:

  • [ ] Sterowanie – Ocena bodźców (dobre/złe) i podstawowy ruch w ich kierunku
  • [ ] Wzmacnianie – Nauka oparta na przewidywaniu nagrody
  • [ ] Symulacja – Wewnętrzny model świata i wyobrażanie scenariuszy
  • [ ] Mentalizowanie – Modelowanie intencji i wiedzy innych agentów
  • [ ] Mówienie – Złożony, symboliczny język do komunikacji abstrakcyjnej

Mit AGI i przyszłość specjalizacji

Czy AGI w ogóle istnieje?

Bennett stawia prowokacyjną tezę. AGI może być złudzeniem. Nie istnieje jeden uniwersalny algorytm.

Każdy organizm specjalizuje się w określonym zestawie zadań. Różne stopnie generalizacji, zawsze w kontekście.

Za dekadę możemy zrozumieć – nie ma jednej inteligencji ogólnej. Są różne inteligencje dopasowane do nisz.

Modele przestrzeni stanów

Artykuł Mamba – wydajność jak transformery, efektywność i długoterminowa pamięć. Selektywny mechanizm decyduje, co zapamiętać.

To nie zamiennik. To dodatek, hybrydyzacja. Jak w ewolucji – nowe nakłada się na stare.

Świadomość i wartość moralna

Gdzie zaczyna się doświadczenie

Bennett spekuluje – qualia u ssaków. Szczur może cierpieć podobnie jak człowiek.

Tożsamość to osobna kwestia. Naczelne mają poczucie „ja”. Ale cierpienie nie wymaga samoświadomości.

Medytacja – powrót do czystego doświadczenia. Bez obsesji na tożsamości. Radość medytacji to właśnie to.

Etyczna bomba zegarowa AI

Jedyny argument – mechanistyczne podobieństwo. Twój mózg jak mój, więc zakładam świadomość.

To nie zadziała z AI.

Materializm – proces możliwy w krzemie. Ale jak rozpoznać, kiedy to się stało?

Praktyczne wnioski

Propagacja wsteczna może pozostać. Ale z dodatkami – mechanizmy ciągłego uczenia, selekcja informacji.

Nie kopiować mózgu. Zrozumieć zasady. Wziąć smak, nie przepis. Jak bracia Wright – inspiracja ptakami, realizacja metalowa.

Przyszłość to wyspecjalizowane moduły współpracujące. Nie jeden super-model.

Instrukcje inspirowane ewolucją inteligencji

Na podstawie analizy Bennetta można stworzyć instrukcje wykorzystujące zasady ewolucyjne:

1. Eksploracja oparta na gradientach (inspiracja: nawigacja taksowa)

Kiedy stosować: Przy eksploracji nieznanych obszarów problemów

Analizuj ten problem używając gradientów:

1. WYKRYJ SYGNAŁY: Jakie są "pozytywne" i "negatywne" wskaźniki w tej sytuacji?
2. PODĄŻAJ ZA GRADIENTEM: Które działania zwiększają pozytywne sygnały?
3. INTEGRUJ SPRZECZNOŚCI: Jak zbalansować konfliktowe sygnały?
4. SPRAWDŹ LOKALNE SKUPISKA: Jeśli znajdziesz coś wartościowego, eksploruj okolicę

Problem: [opis]

2. Uczenie różnic czasowych (inspiracja: zwoje podstawy)

Kiedy stosować: Do analizy długoterminowych strategii i uczenia się z błędów

Przeanalizuj tę sytuację używając błędu przewidywania:

1. PRZEWIDYWANIE: Jakie były moje oczekiwania przed działaniem?
2. RZECZYWISTOŚĆ: Co faktycznie się stało?
3. BŁĄD PRZEWIDYWANIA: Gdzie różnica była największa?
4. AKTUALIZACJA: Jak to zmienia moje przyszłe oczekiwania?

Sytuacja: [opis]
Nie ucz się tylko z końcowego rezultatu - znajdź punkty zmiany oczekiwań.

3. Zastępcze próby i błędy (inspiracja: neurony miejsca)

Kiedy stosować: Do złożonych problemów wymagających rozważenia alternatyw

Symuluj różne ścieżki przed decyzją:

1. ZIDENTYFIKUJ PUNKT WYBORU: Gdzie muszę podjąć decyzję?
2. ODTWARZANIE MENTALNE: Dla każdej opcji "przejdź" mentalnie całą ścieżkę
3. PRZEWIDYWANY REZULTAT: Gdzie każda ścieżka mnie doprowadzi?
4. PORÓWNAJ I WYBIERZ: Która ścieżka ma najlepszy przewidywany rezultat?

Pokaż proces "mentalnego chodzenia" różnymi ścieżkami.

Problem: [opis]

4. Postawa intencjonalna (inspiracja: teoria umysłu)

Kiedy stosować: W komunikacji, negocjacjach, planowaniu zespołowym

Przeanalizuj sytuację z perspektywy wszystkich stron:

1. MOJA PERSPEKTYWA: Co ja wiem, czego chcę, jak widzę sytuację?
2. ICH PERSPEKTYWA: Co prawdopodobnie wiedzą, czego chcą, jak widzą sytuację?
3. WSPÓLNE POLE: Gdzie nasze perspektywy się pokrywają?
4. RÓŻNICE: Gdzie są główne rozbieżności?
5. STRATEGIA: Jak przekazać informację uwzględniając ich punkt widzenia?

Sytuacja: [opis]

5. Przełączanie sterowane niepewnością (inspiracja: model-free vs model-based)

Kiedy stosować: Gdy trzeba zdecydować o poziomie analizy

Oceń czy potrzebujesz szybkiej czy głębokiej analizy:

TRYB SZYBKI (bez modelu):
- Czy to standardowa sytuacja, którą już znam?
- Czy mam sprawdzone rozwiązania?
- Czy czas jest kluczowy?

TRYB GŁĘBOKI (z modelem):
- Czy sytuacja jest nietypowa lub ryzykowna?
- Czy mam sprzeczne sygnały?
- Czy mogę poświęcić czas na analizę?

Wybierz tryb i uzasadnij wybór.

Sytuacja: [opis]

6. Odporna integracja (inspiracja: odrzucanie sprzecznych informacji)

Kiedy stosować: Przy weryfikacji nowych informacji

Przed przyjęciem nowej informacji:

1. SPRAWDŹ SPÓJNOŚĆ: Jak to pasuje do tego, co już wiem?
2. MECHANIZM: Czy rozumiem, DLACZEGO to miałoby być prawda?
3. ŹRÓDŁO: Czy źródło jest wiarygodne w tym kontekście?
4. KONSEKWENCJE: Co to oznacza dla innych rzeczy, które wiem?

Jeśli informacja nie przechodzi testów, nie włączaj jej do modelu.
Zamiast tego wyjaśnij konflikt.

Nowa informacja: [treść]

7. Analiza hierarchiczna wielopoziomowa (inspiracja: metapoznanie)

Kiedy stosować: Do bardzo złożonych problemów strategicznych

Analizuj na trzech poziomach jednocześnie:

POZIOM OBIEKTOWY: Jaki jest bezpośredni problem i możliwe rozwiązania?
POZIOM META: Jak myślę o tym problemie? Czy moje podejście jest odpowiednie?
POZIOM META-META: Czy mój sposób myślenia o myśleniu jest produktywny?

Po analizie na każdym poziomie, zintegruj wnioski.
Wskaż, gdy któryś poziom sugeruje zmianę podejścia.

Problem: [opis]

8. Przetwarzanie energooszczędne (inspiracja: kompromisy ewolucyjne)

Kiedy stosować: Przy optymalizacji procesów i alokacji zasobów

Oceń kompromisy przed głęboką analizą:

1. KOSZT MYŚLENIA: Ile czasu/energii wymaga szczegółowa analiza?
2. WARTOŚĆ PRECYZJI: Jak bardzo dokładność wpłynie na rezultat?
3. RYZYKO BŁĘDU: Jakie są konsekwencje złej decyzji?
4. DOSTĘPNE ZASOBY: Ile realnie mogę poświęcić na analizę?

Jeśli koszt >> wartość, użyj heurystyk.
Jeśli ryzyko >> koszt, analizuj szczegółowo.

Sytuacja: [opis]

Ograniczenia i ostrzeżenia:

Te instrukcje mogą zawodzić gdy:

  • Problem wymaga eksperckiej wiedzy domenowej
  • Sytuacja ma niestandardową strukturę nagród
  • Czas na analizę jest skrajnie ograniczony
  • Potrzebna jest kreatywność wykraczająca poza ewolucyjne wzorce

Pamiętaj: To narzędzia inspirowane biologią, nie uniwersalne rozwiązania. Mózgi ewoluowały pod konkretne wyzwania, które mogą nie odpowiadać współczesnym problemom.

Kluczowe spostrzeżenie

Percepcja to przewidywanie, nie odbiór

Standardowo myślimy: Aby zrozumieć problem, musimy zebrać jak najwięcej obiektywnych danych. Nasz mózg działa jak kamera, która pasywnie rejestruje informacje ze świata.

W praktyce okazuje się, że: Mózg aktywnie generuje model rzeczywistości (przewiduje), a dane ze zmysłów służą mu jedynie do korygowania tego modelu. Percepcja to nie odbiór, lecz proces ciągłego testowania wewnętrznych hipotez.

Dlaczego to jest istotne: Nasze „obiektywne” obserwacje są zawsze zabarwione przez wcześniejsze oczekiwania. Prawdziwa innowacja nie polega na zbieraniu większej ilości danych, ale na świadomym kwestionowaniu i zmienianiu wewnętrznych modeli.

Test na jutro: Następnym razem gdy będziesz analizować opinię klienta, zamiast pytać „Co dokładnie powiedział?”, spróbuj zadać pytanie „Jaki wewnętrzny model rzeczywistości sprawił, że tak to zinterpretował?” i sprawdź, jak to zmienia twoje rozumienie jego prawdziwej potrzeby.

Polecane książki

„A Brief History of Intelligence: Evolution, AI, and the Five Breakthroughs That Made Our Brains” – Max Bennett Dogłębna analiza ewolucji inteligencji z perspektywy neurobiologii, psychologii i AI. Łączy 600 milionów lat historii z praktycznymi implikacjami dla rozwoju sztucznej inteligencji.


Ten wpis jest częścią mojej kolekcji notatek z ciekawych podcastów, webinarów i innych treści, które uważam za wartościowe i do których sam chcę wracać. Jeśli chcesz sprawdzić oryginalne źródło, znajdziesz je tutaj: A Brief History of Biological and Artificial Intelligence with Max Bennett

More from the blog