W książce wyprowadzona jest na drodze dedukcyjnej ‘definicja życia’, w dwóch spójnych wersjach, ale ‘definicja życia’ to zbyt uproszczone oczekiwanie. Wywód wychodzący z bardziej podstawowych założeń ma za podstawę nieznany dotąd stan pośredni pomiędzy chaosem a porządkiem (nazwany tu półchaosem), wykryty drogą komputerowych symulacji dynamicznych, deterministycznych sieci złożonych. Wyniki te korygują znaną hipotezę Kauffmana: ‘życie na granicy porządku i chaosu’ (wynikającą ze statystycznych cech w pełni losowych systemów) do: ‘życie toczy się w półchaosie nie w pełni losowych systemów’. Szerszy i bardziej intuicyjny obraz istoty życia wymagał naszkicowania teorii nieintencjonalnej informacji celowej. Porządkuje ona aspekty celowościowe (pragmatyczne) i semantyczne informacji, które dotąd nie posiadały równie ścisłych opisów. Wywiedziony proces jest tak podobny do ‘życia, jakie znamy’ i mechanizmów jego ewolucji, że można przyjąć go jako ogólny opis życia. W obu ujęciach otrzymuje się podstawowy mechanizm darwinowski. Tendencje strukturalne wynikające z takiej ewolucji adaptacyjnej tłumaczą m.in. haecklowską rekapitulację filogenezy w ontogenezie, odrzucaną w XX w. w wyniku utraty wyjaśnienia, jakim pierwotnie było dziedziczenie cech nabytych. Użyte metody, typowo stosowane w fizyce i matematyce, dały spójny obraz procesu życia i wielu powiązanych aspektów, jednak wyraźnie z innej perspektywy od powszechnie stosowanej. Nowy punkt widzenia oparty o szerokie uzgodnione zaplecze pozwoli na nowe spojrzenie na wiele problemów trudnych w poprzedniej perspektywie.
Andrzej Gecow
Szkic dedukcyjnej teorii życia
Warszawa 2024, s.
ANKROM AMF WYDAWNICTWO
ISBN 978-83-928910-5-5
https://sites.google.com/site/andrzejgecow
Spis treści
Streszczenia 2
Zamiast przedmowy 4
-
- Kilka słów o Autorze (prof. Jan Kozłowski) 4
- Leży przed nami „Teoria życia” – opinia prof. Janusza Uchmańskiego 7
- Fragmenty opinii dra Krzysztofa Chodasewicza 8
Wstęp 11
-
- Ostrzeżenie 11
- Podstawowe założenia podejścia 12
- Wnioski i dyskusja oraz trochę historii moich badań 19
- Model ewoluującego obiektu – funkcjonująca sieć deterministyczna, źródło mechanizmu darwinowskiego 21
- Podstawowe własności Boolowskiej sieci losowej, chaos i porządek 23
- Przesłanki korekty wizji Kauffmana 34
- Półchaos 45
- Ewolucja systemu półchaotycznego, źródło mechanizmu darwinowskiego, tendencje 56
- W spomaganie 68
- Teoria informacji celowej 74
- Wstęp – stan aktualny i plany 74
- Rozszerzenie pojęć informacji i kodowania, przesłanki i interpretacje 83
- Szkic modelu obiektu, środowiska i naturalnego kodera 92
- Cel, ale nie intencja 101
- Informacja celowa 103
- Rodzaje informacji celowej i jej zapisu 109
- Uniwersalny dekoder, porównanie skutku do celu 126
- Warianty ilości i doskonałości informacji celowej, proces udoskonalania 134
- Samodzielny proces zbierania informacji celowej 148
- Samodzielny U-dekoder – ma mieścić się w Układzie 148
- Naturalne kryterium tożsamości 157
- Rozmnażanie 164
- Wzrost ilości informacji celowej przez dyfuzję na poziomie biotycznym 183
- Test efektywności zwiększa W1, eksplozja ilościowa, zapas degeneracji dozwolonej 197
- Wzrost długości zapisu i nieadekwatny wzrost W2 w konkurencji o zasoby 212
- Informacja dziedziczna (zmienność kontrolowana) 228
- Środowisko biotyczne 234
- Czy zdefiniowany tu proces można uznać za życie 237
- Modele losowej składowej zmienności, udoskonalanie, tendencje strukturalne 253
- Wstęp 253
- Model procesu udoskonalania obiektu bez struktury 259
- Długość zapisu informacji celowej 273
- Podstawowe tendencje strukturalne w stałym środowisku 279
- Tendencja osłaniania – reakcja na zmianę środowiska 324
- Wiązanie agregatów, specjalizacja – tendencje w relacjach z elementami środowiska 351
- Wstęp 351
- Specjalizacja – zmienność obiektu w środowiskach zróżnicowanych 352
- Uaktywnienie innych agregatów ze środowiska, wiązanie agregatów – konsolidacja 357
- Bogatszy opis osłony – narzędzia, gig 366
- Wiązanie udoskonalanych agregatów – zespalanie 372
- Wiązanie w trakcie rozmnażania – kolonializacja 394
- Metody gromadzenia informacji celowej, wyższe testy 409
- Dyskusyjne przykłady gromadzenia informacji celowej 420
- Podsumowanie 442
Literatura 451
Spis treści 462
6 Podsumowanie
6.1 Nowe rozwiązania
6.1.1 Półchaos
Weryfikowalne własności życia są wynikiem ewolucji, a ta posiada pewne parametry, które należało ustalić. Podstawowym pytaniem jest: co ewoluuje? Ponieważ wiele podstawowych własności życia niekoniecznie zależy od aspektów materiałowych/chemicznych, należało je zakładać dopiero, gdy okażą się konieczne.
Na początek przyjęty więc został złożony system wzajemnych uzależnień opisany skierowaną siecią dynamiczną. Kauffman wskazywał na określony wybór parametrów swoją hipotezą ‘życie na granicy chaosu i porządku’, zbudowaną na podstawie badań systemów w pełni losowych, jednak wiele argumentów heurystycznych wskazywało na parametry chaotyczne. Badanie tego problemu (rozdz.1) doprowadziło mnie do wykrycia półchaosu i korekty hipotezy Kauffmana na: ‘życie toczy się w półchaosie nie w pełni losowych systemów’.
Półchaos daje zaskakująco wiele podstawowych cech życia, które można zdefiniować jako ‘długie utrzymywanie półchaosu w warunkach zmienności losowej’. Praktycznie daje podstawowy mechanizm darwinowski z dobrze określoną naturalną tożsamością ewoluującego obiektu, eliminacją, tendencją małej zmiany, której wielkość też ma naturalne ograniczenie. Już z tej definicji wynika konieczność rozmnażania. Badania te pokazały także, że ujemne sprzężenia zwrotne powszechnie uznawane za podstawę stabilności organizmów żywych, są jedynie cechą wspomagającą, a podstawą jest krótki atraktor definiujący półchaos.
6.1.2 Informacja celowa
Wykrycie półchaosu jest względnie świeżym osiągnięciem. Wcześniej za wyjściową cechę odróżniającą świat ożywiony od abiotycznego uznawałem rzucające się w oczy nagromadzenie ‘informacji celowej’. Włączając w proces życia człowieka z jego działalnością informacja celowa nie występuje nigdzie poza tym procesem. Zbudowałem więc drogę definiującą informację celową (nie intencjonalną) na bazie teorii Shannona i Hartley’a, nadającą się do opisu przyrody nawet wtedy, kiedy człowieka jeszcze nie było. W tym ujęciu informacja jest czym innym niż informowanie i nie wymaga przekazu do istnienia. Obecnie za Kuppersem dzieli się aspekty informacji na: syntaktyczny (tj. shannonowski), semantyczny i pragmatyczny (celowościowy). Systematyzując je pokazana została różnica pomiędzy informacją prostą (obiekt posiada w swojej budowie informację jak reagować na zadane warunki zewnętrzne) i informacją celową, wyjaśnione zostały aspekt semantyczny i pozycja ‘informacji biologicznej’. Zdefiniowane zostały 3 podstawowe, obiektywne wymiary informacji celowej: ilość, skuteczność i długość zapisu, istotne w dalszych rozważaniach, oraz subiektywne, w tym przede wszystkim cenność dla odbiorcy wskazana przez Eigena. Analiza ta istotnie posuwa do przodu wiedzę o aspektach informacji i nadaje im ścisły charakter istotnie lepiej zdefiniowanych bytów.
Aby zdefiniować informację celową zbudowany został możliwie ogólny model deterministycznego układu odosobnionego, w którym kolejne sytuacje rekurencyjnie przekształcane są przez prawa fizyczne. Następnie, sytuacje te podzielone zostały na: obiekt niosący później informację celową, i środowisko w roli naturalnego kodera przekształcające ów obiekt. Cel zdefiniowany został jako skutek, do którego poszukiwane są przyczyny (jakimś mechanizmem). Informacją celową jest zapis tych przyczyn zadanego celu znalezionych przez koder odwrotny do naturalnego przekształcającego przyczyny w skutek. Ogólnie nie istnieje naturalny dekoder (choć zdarzają się wyjątki) kodu naturalnego, ale można wskazać cechy uniwersalnego dekodera.
Zakładając, że na początku procesu życia brak było jeszcze zgromadzonej informacji celowej, a w obiekcie wybranym a posteriori, który szczególnie jest odmienny od abiotycznych, jest jej dużo, zdefiniowany został proces ‘udoskonalania’ (systematycznie/monotonicznie podnoszący skuteczność/doskonałość informacji celowej) oraz rozmaite jego warianty. Szkic teorii informacji celowej to rozdz.2.
6.1.3 Samodzielny długi i efektywny proces zbierania informacji celowej
W rozdz.3 postawione zostało pytanie: ‘czy może zaistnieć samodzielny proces zbierania informacji celowej?’ i jakie musi spełniać warunki. Oczywiście, aby proces taki był długi musi posiadać rozmnażanie, ale głównie poszukiwane były mechanizmy dekodera uniwersalnego, który realizowałby proces takiego udoskonalania. Dekoder ten musi ‘zmieścić się’ w układzie odosobnionym, a ten warunek daje ograniczenie na możliwy cel – musi to być punkt stały kodu, czyli ‘istnieć nadal’. Podstawą selekcji tworzącej informację celową jest tu automatyczna eliminacja.
Eliminacja nie wpływa na budowę tego, co pozostaje, wpływa jedynie na udział tego, co pozostaje w ramach rozważanej puli, na której określona jest doskonałość W. To jednak jest wyselekcjonowane, więc niesie informację o celu selekcji. W tym sensie jest mechanizmem procesu, który pozostał, wyznacza jego specyficzne cechy. Natomiast osiągnięcie dostatecznej prędkości rozmnażania (skutecznie kompensującej straty z powodu niecelnej zmienności i niedostatecznej skuteczności informacji celowej) tworzy poziom równowagi ‘biotycznej’, na którym zmienność losowa ‘rozlewa’ proces nieograniczony już zbieżnością do poziomu maksymalnej entropii (równowagi abiotycznej). Powstają tak obiekty o ogromnej ilości informacji celowej (o mniejszej ilości także, ale te nas mniej interesują), z których wybieramy jakieś i dziwimy się, że mają tej informacji aż tyle. Ogólny proces rzeczywiście monotonicznie podnosi średnią ilość informacji celowej (z powodu asymetrii przestrzeni, w której się rozlewa), ale nie ma on mechanizmu wymuszającego monotoniczność w nitce ewolucyjnej prowadzącej do wybranego a posteriori obiektu (z dużą ilością informacji celowej). Ilość informacji celowej to nie jej skuteczność, ta może się nie zmieniać, więc nie ma tu poszukiwanego procesu udoskonalania.
Analizując w warunkach nieograniczonej pojemności środowiska nieco większą prędkość rozmnażania od dostatecznej, dostajemy eksplozję ilościową. W tym przypadku największa skuteczność informacji celowej wyznacza obiekty o największym udziale – to ‘test skuteczności’ i on rzeczywiście prowadzi do systematycznego wzrostu doskonałości, tworzy proces udoskonalania. Skuteczność/doskonałość ‘słaba’ w tym procesie opisuje także prędkość rozmnażania. Ten test nie opiera się na eliminacji, która wydawała się podstawą mechanizmu darwinowskiego, jednak tu jeszcze nie założono ograniczonej pojemności środowiska.
Dotąd obowiązywało ‘założenie o pomijalności’ wpływu obiektu na środowisko – naturalny koder. Do użycia posiadanej informacji celowej potrzebny jest ten sam (lub bardzo zbliżony, tj. adekwatny) koder. Informacja celowa, jaka nas głównie interesuje, to nie prosta prędkość rozmnażania, a inne własności, które, przy utrzymaniu bilansu bez zmian, pozwalają zmniejszyć prędkość rozmnażania. To doskonałość ‘mocna’, nie zawiera ona skutków rozmnażania. Okazuje się, że mocna doskonałość rośnie dopiero przy pokonywaniu bariery pojemności środowiska (tj. w warunkach konkurencji), ale formalnie niebawem znowu spada w wyniku napotkania następnej bariery pojemności, co jest wynikiem zmiany środowiska (kodera), a nie obiektu. Jest to więc ‘nieadekwatny’ wzrost doskonałości mocnej, gdyż kod realizujący zgromadzoną informację celową jest do niej nieadekwatny. Z punktu widzenia obiektu zdobył on więcej informacji celowej, w widoczny sposób wydłużył się jej zapis, ale skuteczność doznała dewaluacji w wyniku zmiany kodera, który miał się nie zmieniać (z założenia o pomijalności).
Zanim eksplozja ilościowa zatrzymała się na barierze pojemności, działanie eliminacji było nieistotne dla obserwowanego obrazu udziałów. Zmienność akceptowana miała duży ‘zakres degeneracji dozwolonej’, co powodowało jej wyraźnie inny charakter dozwalający spore zmiany. Na barierze ten przedział degeneracji dozwolonej jest minimalny, a eliminacja staje się istotnym elementem podstawowego mechanizmu darwinowskiego wyznaczającego udział różnych rozwiązań o różnej skuteczności. Mechanizm ten preferuje większą doskonałość, czyli tworzy proces udoskonalania i tworzy informację celową, które jednak podlegają ciągłej dewaluacji (czerwona królowa), co udaje, jakby udoskonalania nie było (realna doskonałość ‘stoi w miejscu’).
6.1.4 Tendencje strukturalne
Rozdz.4 dotyczy modeli podstawowych tendencji strukturalnych. Tendencje te są ściśle zdefiniowane jako uboczne efekty procesu udoskonalania polegające na powstawaniu różnic w rozkładach badanych parametrów zmian między procesem dowolnym a udoskonalania. Wpierw omawiany jest ogólny model adaptacji bez struktury, który przedstawia zachowania ilości informacji celowej, doskonałości itp. Następnie dyskutowany jest dość wstępny model długości czynnego i martwego zapisu informacji celowej. Wnosi on ważne elementy do interpretacji obserwowanej złożoności związanej z celowością. Główny podrozdz.4.4 dotyczy skrajnie kontrowersyjnej w biologii, klasycznej prawidłowości rekapitulacji filogenezy w ontogenezie, która ‘upadła’ w wyniku obalenia tłumaczącego ją dziedziczenia cech nabytych, a tu dostaje wyjaśnienie jako tendencja strukturalna. Badania prowadzone są przy użyciu symulacji komputerowej. Ostatni podrozdz.4.5 opisuje tendencję osłaniania, której biologia nie zna, a jest wyjątkowo ważna. Polega ona na innej, niż powszechnie się bada formie zmienności losowej – odtwarzaniu funkcjonowania w pobliżu ‘awarii’.
6.1.5 Dobór grupowy, integrony wyższego rzędu
Rozdz.5, ostatni, jest mniej ścisły, nie jest podparty badaniami symulacyjnymi, ale rozpatruje istotne, bardziej złożone tendencje strukturalne. Są to: specjalizacja i mechanizmy tworzące integrony wyższego rzędu – zespoły i kolonie. Tu wyjaśniona jest różnica pomiędzy zbiorem obiektów rozmnażających się wegetatywnie (zwanym tu pulą) a populacją, w której występuje wymiana informacji celowej tworząc mechanizmy populacyjne – silny akcelerator zmienności adaptacyjnej. Akcelerator ten tworzy silniejszy mechanizm zdobywania informacji celowej nazwany w odróżnieniu od testu podstawowego testem II. Dyskutowany jest jego specyficzny wariant – ‘test lokalny’ pozwalający na udoskonalanie takich tworów jak np. Gaja.
W ramach dyskusji tendencji zespalania, oprócz akceleratora tworzącego test II, rozważane są: ‘narzędzia’, oraz ‘zespół pierwotny’ opisujący powstanie obiektu i jego rozmnażania, czyli biogenezę.
6.1.6 Efektywniejsze mechanizmy zbierania informacji celowej
Podrozdz.5.7 przewiduje jeszcze wydajniejsze ‘testy’ tworzące informację celową, w tym dyskutuje memy i ich status, tworzenie obrazu środowiska i przekształcanie form posiadanej informacji. Traktuje te mechanizmy jako naturalny, obiektywny element ewolucji biologicznej starając się spojrzeć na nie z zewnątrz, a nie z pozycji uczestniczącego w tym procesie człowieka.
Ostatni podrozdz.5.8 jest polemicznym spojrzeniem z pozycji zastosowanej w Szkicu metodologii na obecne poglądy w biologii dotyczące zbierania informacji celowej, czyli mechanizmów ewolucji adaptacyjnej, głównie w zakresie zmienności fenotypowej. Rozważane są głównie dwa nowe prądy naukowe, które symbolizowane są przez hasła: ‘mechanizmy lamarkowskie’ (w tym ‘plastyczność’ oraz EES – Extended Evolutionary Synthesis) i najnowszy ‘developmental bias’. Wskazywane są problemy wynikające z niedowartościowania ścisłych metod dedukcyjnych, które usiłuje promować Szkic.
6.2 Metodologia i filozofia
Ten rozdział z konieczności operuje na pojęciach i terminach definiowanych w książce, dlatego nie mógł być we Wstępie. Określona metodologia jest założeniem w Szkicu, a nie wnioskiem podawanym w Podsumowaniu. Wnioski o poprawności metodologii wyciągnie Czytelnik oceniając wyniki, ja jednak pokażę tu, jakich wniosków oczekuję. Mam świadomość, że Biolog oczekiwał innych wyników.
Tytuł: ‘Szkic dedukcyjnej teorii życia’ dobrze oddaje intencję i treść książki. Znajduje się w niej definicja życia (typu darwinowskiego), które jest procesem. Należy odróżnić definicję życia od definicji obiektu żywego, który jest nośnikiem, wynikiem i chwilowym stanem jakiejś gałązki procesu, wyraźnie wtórnym względem tego procesu. Podanie dobrej operacyjnej definicji obiektu żywego bez odniesienia do rozciągłego w czasie procesu niekoniecznie jest możliwe, choć tu także wywodzone są cechy (długość zapisu informacji celowej) pozwalające na identyfikację w stosunkowo krótkim czasie bardziej złożonych obiektów żywych. Nasz język jest obiektowy, co stwarza problemy przy opisie procesu, tym bardziej – procesu tak złożonego, jak proces życia. Oczekiwanie definicji obiektu żywego, gdy rozważana jest definicja życia jest błędem wynikającym z własności języka.
Opis procesu życia wymagał wprowadzenia wielu uściślonych pojęć definiowanych bez odniesienia do biologii, by był to wywód dedukcyjny, możliwie ścisły, zbliżony do formy geometrii Euklidesa i teorii w fizyce. Porównanie obserwowanego życia do wyników wydedukowanych z przyjętych założeń ma dać wniosek, że są one na tyle podobne, iż można uznać owe założenia za jego definicję. Jednak aby mieć jasność interpretacji i iść we właściwym kierunku, budowa teorii silnie kierowana była wiedzą biologiczną.
Główną tezą tej książki jest potrzeba budowy teorii życia o strukturze dedukcyjnej, która daje wyjaśnienie źródeł rozważanych cech. Jest to teza wyraźnie metodologiczna i wynikająca z podstaw filozoficznych (i, niewątpliwie, mojego wykształcenia jako fizyka). Taka teoria powinna być następnym krokiem po obecnie konstruowanym ‘Extended Evolutionary Synthesis’ (EES). Przedsięwzięcie budowy teorii tego typu w zakresie procesu życia wymaga pokonania wielu barier o charakterze paradygmatów, nie sądzę, by dało się tego dokonać w jednym kroku. Przedstawiam więc jedynie szkic takiej teorii, prawdopodobnie jeden z wielu możliwych.
Do przezwyciężenia są głównie opory środowiska biologów wynikające z mało uświadomionych podstaw filozoficznych stosowanej metodologii, i z oczekiwań dotyczących wyników. Trudności powiększa multidyscyplinarność użytych narzędzi, więc i pojęć wraz z ich środowiskami. Istotne problemy tych podstaw celnie ujmuje w postaci 7-miu mitów Ługowski (1991/1998) w artykule In venenoso Dracone summam medicinam inesse, or On the Mythology and Philosophy of Biology. Ja zaliczam je do ‘paradygmatów’, które szczególnie silnie opierają się podważaniu, gdyż przede wszystkim leżą u podstaw wypracowanych struktur wiedzy, jakie reprezentują i propagują konkretni naukowcy. Podważanie takich pewników burzy te struktury i pozostawia wykształconych badaczy z dorobkiem w bezradnej pozycji uczniów podstawówki – nic dziwnego, że się bronią. Ale aby nauka mogła posuwać się do przodu, nowe pokolenia powinny uważnie sprawdzać pewniki podawane im przez autorytety. Dlatego głównie liczę na młodych Czytelników. Analiza, na ile świadomość takich mitów – źródeł powszechnie obowiązujących paradygmatów, wzrosła przez ostatnie 30 lat, przedstawiona jest w artykule (Kubica 2024). Można tam znaleźć wiele przykładów borykania się z takimi mitami, głównie w zakresie abiogenezy. Nie jestem, jak widać, samotnym destruktorem paradygmatów.
Aspekt filozoficzny tej książki nie był szczególnie rozwijany poza rozdz.5.5.5.3, ma on jednak istotne znaczenie. Nie jestem w tym biegły, ale wyłuszczenie podstaw mojej postawy, którą lansuję w książce, wydaje się pożądane, co także sugeruje Kubica (2024).
Budując wiedzę o świecie zewnętrznym postrzegamy fakty i ich statystyczne korelacje (Tałasiewicz 2007). Biolodzy zbierają głównie takie indukcyjne ‘dane’. To jest pierwszy krok, drugi – to pytanie: ‘dlaczego tak jest?’ pozwalające zrozumieć te dane na podstawie już wcześniej zgromadzonej wiedzy, czyli zredukować je.
Sedno podejścia dedukcyjnego, to wskazywanie przyczyn zwanych założeniami, z których wynikają określone własności; to jest owo zrozumienie kontra wiedza, odpowiedź na pytanie: ‘z czego to wynika?’, czyli: ‘dlaczego tak jest?’. Ale żeby zadać takie pytanie, trzeba wcześniej wiedzieć jak jest, choć idąc drogą dedukcyjną można też wykryć pewne, jeszcze nie znane fakty.
Większość ‘danych’ to konkrety, ale podsumowania dają już fenomenologiczne prawidłowości. Takimi prawidłowościami były m.in. np. prawo biogenetyczne Haeckla, wypieranie wsteczne Weismanna, zmienność terminalna Naefa.
Trudności w wyartykułowaniu nowych uogólnień/prawidłowości, zwykle wraz pewną mętną wizją kierunku poszukiwania wyjaśnienia ich mechanizmu, skutkowały takimi sformułowaniami jak np.: ‘uświadomiona potrzeba’ (Lamarck). W tym przypadku to jasny przekaz, że zmiany ewolucyjne korelują z potrzebą, a mechanizm jest związany ze zmieniającym się obiektem, który te potrzeby posiada. Podobny charakter ma ‘używanie i nieużywanie narządów’ skorelowane ze zmianami ewolucyjnymi, czyli także ‘dziedziczenie cech nabytych’. Wyjaśnienie mechanizmu tej korelacji było oczekiwane, Lamarck podzielił się więc swoją intuicyjną wstępną sugestią – poprzez torowanie dróg fluidów. W obu przypadkach to przede wszystkim pokazanie korelacji/prawidłowości, a na dodatek – intuicyjna sugestia gdzie szukać wyjaśnienia, którego brak jest irytujący. Poszukiwania trwały długo, okazały się zaskakujące – związek z potrzebą wyjaśnia presja ewolucyjna w mechanizmie selekcji naturalnej. Mechanizm doboru nie jest ‘obligatoryjny’ (rozdz.5.7.1), jakiego oczekiwano, a statystyczny. Natomiast mechanizm wpływu używania/nieużywania (w tym dziedziczenia części cech nabytych) ma dwa, prawie niezależne mechanizmy – doraźny (plastyczności) i długoterminowy (genetyczny, asymilacja genetyczna). Zakładanie od razu, że mogą to być aż 2 (prawie[1]) osobne mechanizmy byłoby błędem.
W temacie odróżnienia obiektów żywych od nieżywych takim uogólniającym stwierdzeniem/podsumowaniem obserwacji odmiennych ‘praw’ jest tajemnicza ‘siła życiowa’ – entelechia. Poszukiwanie jej natury błądziło głównie po nienaukowych drogach teleologicznych, ale stwierdzenie ‘odrębności praw’ trudne było do zaprzeczenia i wymagało wyjaśnienia. Wiara w racjonalne wyjaśnienia tworzyła podejścia redukcjonistyczne, które napotykały problemy ze zjawiskami występującymi w pewnych całościach, które nie wynikały z własności części tych całości, to skutkowało antagonistycznym kierunkiem – holizmem.
Czy zjawiska życia dają się sprowadzić do zjawisk fizycznych? – Tak i nie, zależy jak na to patrzeć. 1- Nie wynikają z energii i masy, z kwantów itd., jednak 2- nie potrzebują dodania innych praw, niż naturalne. Po prostu spełniają pewne założenia, tj. istnieją w specyficznych, ale naturalnych okolicznościach, a w ich ramach dają specyficzne skutki. Tak jest ze wszystkimi zjawiskami. Dodana jest logika, tj. dedukcja, ogólnie – matematyka – skrócone rozumowanie logiczne, ale to przecież podstawa fizyki i wszelkich nauk.
Dlatego redukcjonizm i holizm jest podziałem w poprzek problemu – są to intuicje, które właśnie wyjaśniam zakresem spełnienia założeń. I tu wyjaśnia się intuicja (fenomenologiczna prawidłowość omawiana wyżej) o własności materii – samoorganizacji (rozdz.5.5.5.3; Ługowski 2017). Nie jest to własność materii, jest to wynik określonych okoliczności wskazanych określonymi założeniami. Wśród nich nie ma masy, energii i kwantów. Dedukcja wskazuje, co wynika z danych założeń. Także entelechia – ‘siła życiowa’ odróżniające żywe od nieżywego, to jedynie zbiór założeń definiujący proces życia. ‘Prawa’ wynikające z tych założeń są specyficzne, nie muszą ‘obowiązywać’ na obszarze, gdzie te założenia nie są spełnione. Zdefiniowane obszary zjawisk, których własności są wywiedzione z tych definicji, tworzą ‘zdedukowane wyspy’ zwane teoriami, na morzu wiedzy indukcyjnej. Zjawiska tworzące te wyspy są ‘zredukowane’ do definiujących je założeń.
Jeżeli takie podejście musi być jakimś ‘-izmem’ to powinno być ‘dedukcjonizmem’, ale taka nazwa już istnieje, choć, jak dla mnie, jej treść jest mętnie i różnorodnie określana. Aby wiedzieć, co powinno być podejściem dedukcyjnym, należy za wzór wziąć geometrię Euklidesa. Jest oczywiste, że dedukcja wymaga założeń, te pierwotne, tzw. aksjomaty, jednak pozostają zewnątrz. Usiłuję je usadowić poza zakresem biologii, ale dedukcjonizm to możliwie uświadomiony proces poszerzania wysp już ‘zdedukowanych’, przynajmniej – zdefiniowanych. Reszta pozostaje w uprzednim zakresie indukcyjnych ‘danych korelacyjnych’ i samouzgodnienia, w obszarze o niepewnych podstawach opisywanych przez prawdopodobieństwo, a nie zero-jedynkową logikę.
‘Szkic’ dedukcyjnie wywodzi bardziej lub mniej ściśle wiele obserwowanych cech życia. Wyprowadzenie ich z określonych założeń pozwala zrozumieć skąd się biorą i dlaczego są takie na nie inne. Do większości z nich założenia materiałowo- chemiczno-energetyczne a także rozmnażanie generatywne zakładane w ‘Modern Synthesis’ okazują się zbędne. Mało dotąd używany punkt widzenia pozwala włączyć w spójną całość zagadnienia spoza dzisiejszego zakresu biologii (półchaos, obiektywną celowość, memy, a także gospodarcze i administracyjne) oraz istotnie rozszerzyć lub pogłębić niektóre podstawowe pojęcia, w tym: aspekty/wymiary informacji, głównie informacji celowej. ‘Szkic’ proponuje też inne akcenty metodologiczne, oprócz najważniejszej tu dedukcji (spekulacji) głównie dowartościowuje wyjaśnianie ‘na wyższym poziomie organizacyjnym’ (w sensie integronów wyższego rzędu), gdy jednocześnie możliwe są wyjaśnienia ‘na niższym poziomie’.
W ostatnim rozdz.5.8 wskazane są skutki rażącej dysproporcji w metodologii współczesnej biologii ewolucyjnej między stosowaną ‘dokumentacją’ obserwacji a ‘spekulacją’ (programowo odrzucaną), tj. metodami ścisłej, abstrakcyjnej dedukcji, na której oparty jest proponowany ‘Szkic dedukcyjnej teorii życia’.
6.3 Zakończenie od autora
Szanowny Czytelniku, jeżeli rzeczywiście doczytałeś do tego miejsca (a nie jedynie przejrzałeś obrazki), to jestem Ci niewymownie wdzięczny za Twój trud i przede wszystkim gratuluję wytrwałości i odwagi w budowaniu indywidualnego poglądu.
Moim zdaniem przedstawiłem tu to, co jednoznacznie sugeruje tytuł: ‘Szkic dedukcyjnej teorii życia’. Podaje on definicję życia, ale jest ona wyartykułowana przy pomocy pojęć zdefiniowanych w tym Szkicu, nieco innych od pospolitego znaczenia tych terminów w języku używanym poza Szkicem. Wartość tej próby usystematyzowania całości spojrzenia na problematykę ‘co to jest życie’ polega na spójności sporego obszaru opisu i jego interpretacji, oraz na przyjętych podstawach metodologicznych – dedukcji stosowanej w naukach ścisłych (pozwalającej rozumieć) w miejsce dokumentacji faktów stosowanej w biologii (pozwalających wiedzieć). Do uznania, że teoria opisuje rzeczywistość, i że tę rzeczywistość rozumiemy, konieczne są obie drogi, a nie tylko doświadczalna. Dla biologa książka ta „nic nowego nie wnosi, poza spekulacją”, bo nie przytacza „nowych danych”. Ale powinna zmienić wiele w wyjaśnianiu (w sensie rozumienia dlaczego dane fakty zaistniały). Fizyka dla biologa sprowadza się do metod laboratoryjnych i fizycznych czynników badanych zjawisk biologicznych, natomiast to podejście usiłuje zastosować kryteria/metodologię fizyki jako nauki do opisu zjawisk badanych przez biologię, a przez to włączyć ten obszar w fizykę. Oczywiście, każda aneksja cudzego terytorium do obcego imperium budzi sprzeciw i opór.
Sieci złożone, chaos deterministyczny, entropia statystyczna, symulacja komputerowa to tematy nie związane z masą i energią, jednak uprawiane głównie przez fizyków z racji ścisłych metod i bliskości interpretacji. Tymi pojęciami żonglują argumenty podane w tej książce, choć unikają matematycznych wzorów (tam, gdzie można). Zadaniem tego szkicu nie są bowiem wzory do obliczania, a możliwie ścisła interpretacja.
Duża część zagadnień, które tworzą ów spójny obszar, ‘mieszkała jeszcze u mamy’, tj. w filozofii. Jest to przede wszystkim celowościowy aspekt informacji, który panicznie omijany był przez ‘porządne’ nauki. Trzeba było go rozwiązać ostrożnie omijając ‘czarną dziurę’ błędu finalizmu i zdecydowanie rozdzielając pojęcie ‘cel’ od ‘intencji’. To temat budzący największe emocje, ale podstawowy, gdy zamierza się zrozumieć proces życia.
Jeżeli jednak przeczytałeś tę książkę i zastanawiasz się nad podanymi argumentami i spójnością obrazu, to jestem bardzo zainteresowany kontaktem (mój e-mail: andrzei.gecow@gmail.com, nie jestem pewien, czy jeszcze zdążę go odebrać i odpowiedzieć). Pozwoli on na dyskusję, której tak bardzo było mi brak przez te 6 dekad samotnej pracy nad tym projektem, oraz na stworzenie grupy dyskusyjnej, która może podejmie kontynuację projektu.
[1] Patrz rozdz.5.7.6.1 oraz (Gecow 2024a,b).
