Katalog

Jerzy Lechowski, 2010-04-15
Warszawa

Filozofia i etyka, Artykuły

ZASADA ZACHOWANIA INFORMACJI DOWODEM ISTNIENIA BOGA

- n +

ZASADA ZACHOWANIA INFORMACJI DOWODEM ISTNIENIA BOGA



Prof. dr hab. inż. Jerzy Lechowski
Międzynarodowa Akademia Nauk AIS San Marino
Wydział Cybernetyki
„ais.sanmarino.org”
jlech@o2.pl, www.realizatorzy.prv.pl


Streszczenie

W pracy podjęta została próba wykazania, że słuszność II zasady termodynamiki wynika
z zasady zachowania informacji, której dowód przeprowadzony został w niniejszej pracy
i stwierdzono, że w znanym nam wszechświecie musi być ona ograniczona swoim nośnikiem (materialnym lub energetycznym), ale jest nieskończona, ponieważ może być przetwarzana jedna w drugą, podobnie jak energia lub materia. Podany został również sposób obliczenia maksymalnej ilości informacji zawartej w znanej nam obecnie materii wszechświata. Wykazano także, iż woda jest najdoskonalszym tworzywem antyentropijnym wszystkich organizmów żywych. Podane zostały przykłady wyjaśniające wątpliwości dotyczące zasady zachowania ilości informacji.

1.Związek zasady zachowania informacji z II zasadą termodynamiki

Druga zasada termodynamiki uznawana bywa za jedną z najważniejszych zasad
w naukach fizykochemicznych. Jej słuszność mogłaby być podważona przez „demona Maxwella” – istotę przemyślną i inteligentną, gdyby nie zasada zachowania ilości informacji
w układach izolowanych, ogłoszona po raz pierwszy w 1972 r [3, 4],
która w sposób zdecydowany wypędziła demona z termodynamiki. Druga zasada termodynamiki wiąże się z pojęciem sprawności . Sprawność  definiuje
Wr -jest pracą rozproszoną (zamienianą na ciepło), wobec tego:



Przyjmując T0 = 0 K mamy:

stąd

a więc

albo

stąd

Przyjmując, że: T1 = T2 = T oraz, że:





oraz
to


w układach izolowanych, (można przyjąć, że Wszechświat jest układem izolowanym)
i procesach odwracalnych (zachodzących w naturze) entropia nie zmienia się, nie może zatem również zmieniać się również ilość informacji, którą określa się jako negentropię, czyli ubytek entropii [10]. Problem ten można odwrócić i stwierdzić, ze z zasady zachowania ilości informacji w procesach odwracalnych i układach zamkniętych wynika słuszność II zasady termodynamiki, tzn. że S = 0. Problem ten wiąże się ściśle
z myślowym doświadczeniem L. Szilarda z 1928 r. [6], który oparł się na sugestiach zawartych w pracach M. Smoluchowskiego z 1906 r. dotyczącej II zasady termodynamiki. L. Brillouin pisze o tym fakcie w 1956 r. co następuje:

„ Kiedy odkrywamy godne uwagi podobieństwo pomiędzy informacją i entropią
w grę wchodzi fizyka. Podobieństwo to zauważył dawno temu L. Szilard w pracy z 1929r., która była jakby zwiastunem obecnej teorii informacji. Praca ta była rzeczywiście pionierską penetracją nowego terytorium, które obecnie szczegółowo badamy” [1, s. 20]

Z doświadczenia Smoluchowskiego – Szilarda wynika, że aby II zasada termodynamiki mogla być spełniona musi zmieniać się entropia systemu w trakcie dokonywania
na nim pomiarów. Uzyskanie pewnych informacji o systemie możliwe jest tylko
wówczas gdy zmienia się zarówno entropia systemu, jak i jego otoczenia, bowiem podczas uzyskiwania informacji jednego systemu o drugim następuje zmiana entropii w obu systemach
i ich otoczeniu. W celu uwidocznienia tego faktu owo doświadczenie Smoluchowskiego – Szilarda [5, 6]
Do cylindra, w którym znajduje się jedna cząsteczka, wsuwamy z boku przegrodę dzielącą objętość tego cylindra na dwie części o objętościach: V1 i V2. Niech przegroda ta będzie jednocześnie tłokiem, który może się przesuwać w cylindrze ku górze lub w dół. Zakładamy, że człowiek mógłby obserwować znajdującą się w cylindrze cząsteczkę i w zależności od tego, gdzie się ona znajduje, w V1 czy w V2, przełączać dźwignię odpowiednio sprzężoną z tłokiem, tak by cząsteczka mogła wykonywać pracę w procesie izotermicznym podnosząc np. jakiś ciężar kosztem swojej energii. W zależności od położenia cząsteczki należy rozróżnić dwa składniki entropii S1 i S2 takie, że:


gdzie: p1 i p2 – odpowiednie prawdopodobieństwa określone wzorami:

,

Jednocześnie przy izotermicznym rozprężaniu się gazu następuje pewne zmniejszenie się jego entropii o s1 związane z faktem obserwacji cząsteczki i uzyskaniem informacji o jej położeniu.
Średnia wartość entropii z i oraz średnia wartość entropii, wytworzonej na skutek obserwacji (pomiaru) jest ujemna i wynosi:

Gdybyśmy nie uwzględnili, to II zasada termodynamiki nie mogłaby być spełniona w związku z „demonem Maxwella”. Demon mógłby posortować wszystkie cząsteczki na cząsteczki o mniejszej i większej energii, a wówczas można by bez różnicy temperatur T1 i T2 wykorzystywać ciepło układu.
Jeśli więc II zasada termodynamiki ma być spełniona w układach otwartych, to musi być spełniony warunek:


a zatem z zasady zachowania ilości informacji w układach izolowanych wynika II zasada termodynamiki. Muszą przy tym być oczywiście spełnione dwa warunki:

warunek I:


warunek II:



Warunek I spełniony jest z definicji prawdopodobieństwa, ponieważ cząsteczka może być tylko albo w V1, albo w V2. Warunek II również jest spełniony, ponieważ:

,

stąd:

i ,

a zatem:
oraz .

W każdym przypadku zdarzeń rozłącznych nierówność:



jest słuszna i dlatego nierówność:



jest również słuszna. Z warunku II widać, że jeśli S1 będzie dowolnie małe, to S2 musi być odpowiednio duże - i odwrotnie. Dobrym przykładem na zasadę zachowani ilości informacji może być również fakt, że każdy pomiar obarczony jest błędem, który wynika
z tego, że zakłóca on w większym lub mniejszym stopniu wielkość mierzoną. Fakt ten
staje się oczywisty, ponieważ w trakcie pomiaru wprowadzona zostaje do układu
wraz z dostarczeniem energii pewna entropia równa uzyskanej informacji. Jeśli układ
dostarcza informacji wysyłając pewną energię do otoczenia , to entropia może w tym
otoczeniu pozostawać, a informację może przejmować inny układ. Wiąże się to ściśle
z zasadą nieoznaczoności Heisenberga, która mówi, że nie można jednocześnie dokładnie pomierzyć pędu i położenia ciała: gdy p maleje, to x rośnie, tak że zawsze
musi być spełniony warunek:

lub
Okazuje się również, że nie tylko pomiar wprowadza do układu i jego otoczenia informację i entropię, ale również jeśli chcemy poprzez obliczenia uzyskać pewne informacje
o układzie, to wprowadzamy pewną entropię do jego otoczenia, ponieważ w celu dokonania obliczeń musi być zużyta pewna energia, która zwiększa entropię tylko otoczenia,
nie mniej jednak niż uzyskuje się informacji o układzie.


2. Przykłady usuwające wątpliwości dotyczące istnienia zasady zachowania ilości informacji

1.Dlaczego wykładowca przekazujący informację swobodną słuchaczom, sam jej nie traci? Wykładowca w celu wygłoszenia wykładu musiał zdobyć z otoczenia nie tylko energię,
ale również informacje, spożywając pokarmy wydobył z nich w procesie trawienia nie tylko niezbędną do życia energię, ale również informację związaną, tkwiącą w pokarmach zwiększając ich entropię [10].

2.Dlaczego korzystając ze źródła informacji, np. książki, dysku komputerowego
i innych nie wyczerpujemy ich, a często nawet różni użytkownicy uzyskują, z tego samego źródła różne informacje, w zależności od stanu ich wiedzy i potrzeb w danej chwili?
Aby odpowiedzieć na to pytanie wystarczy przeprowadzić rozumowanie podobne do tego, które przeprowadzono przy odkrywaniu zasady zachowania ładunku elektrycznego. Zasadę zachowania ładunku elektrycznego przyjęto wbrew pozorom wyraźnego jego znikania w przypadku stykania się dwóch ciał naładowanych ładunkami o znakach przeciwnych. Mało tego zasadę tę przyjęto w fizyce jako jedną z najważniejszych zasad zachowania, ważniejszą nawet od zasady zachowania masy, która zgodnie z teorią względności zmienia się wraz z prędkością. Brillouin [1] cytując Szilarda [6] i podkreślając fundamentalne znaczenie jego pracy, zwrócił uwagę na fakt, że za każdą zdobytą informację trzeba „płacić” entropią. W każdym przypadku pobierania informacji, że źródła potrzebna jest pewna energia, która ulega dyssypacji zwiększając entropię środowiska [10].

3.Przy czytaniu książki niezbędne jest źródło światła do oświetlania tekstu, energia świetlna ulega dyssypacji zwiększając entropię środowiska, która jest „ceną” uzyskanej z tekstu informacji. W każdym innym przypadku uzyskiwania informacji ze źródła zawsze potrzeba jest pewna energia, która rozpraszając się zwiększa entropię środowiska [10].

4.Wydawać by się mogło, ze przy niszczeniu źródła informacji, znika również informacja zawarta w tym źródle. Mamy tu sytuację podobną do spalenia paliwa i uwolnienia z niego energii, która została rozproszona, chociaż zasada zachowania energii została przyjęta. Informacja zawarta w niszczonym źródle zostaje zachowana podobnie jak energia zawarta w spalanym paliwie. Jedynie forma informacji zostaje zmieniona w przypadku niszczonego źródła. Informacja istnieje nadal jak sama nazwa „in - forma” wskazuje, w innej formie [10] .

5.Informacja jest wieczna i nieskończona, może bowiem przekształcać się nieskończenie z jednej formy w drugą.

Podobnie jak „demon Maxwella” wypędzony został z termodynamiki, tak i fałsz zostanie usunięty z umysłów ludzkich i prawda ostatecznie człowieka wyzwoli.



3. Obliczanie potencjału i mocy informacyjnej systemu

Potencjałem informacyjnym jest w zasadzie każda wielkość fizyczna, której gradient jest bodźcem wymuszającym przepływ nośnika informacyjnego, a z nim i informacji. W związku z tym za potencjał informacyjny można uznać siłę grawitacji przypadającą na jednostkę masy, czyli natężenie pola grawitacyjnego, inaczej: gradient potencjału grawitacyjnego, podobnie jak inne gradienty: temperatury, ciśnienia, stężenia, pola elektrycznego, pola magnetycznego itp.
Zgodnie jednak z przyjętą definicją potencjału informacyjnego [4, 5, 9]

aby zatem określić jego wartość, musimy przyjąć wartość q (ładunek informacyjne jednego bita ) oraz (pracę potrzebną do przeniesienia jednego bita informacji wraz z jego minimalnym nośnikiem z nieskończoności do danego do danego punktu A, w którym znajduje się już jeden bit informacji) równą:



(dla T = 1K). Potencjał informacyjny punktu A, w którym znajduje się 1 bit informacji jest:



Praca nad przenoszeniem kolejnych bitów z nieskończoności do danego punktu materialnego o promieniu ro wyraża się wzorem:

.

Widać, że wzrasta ona liniowo wraz z przenoszoną informacją. Potencjał informacyjny będzie również wzrastał w tym punkcie liniowo. Ogólnie można napisać, że: , (n – liczba naturalna odpowiadająca kolejnym bitom informacji przenoszonej do punktu fizycznego, albo inaczej – elementarnego nośnika informacji o promieniu ro, w którym znajduje się jeden bit informacji). Oznaczmy przez VnA potencjał informacyjny punktu A, w którym znajduje się n bitów informacji. Potencjał ten wynosi:



Przyjmując definicję wolta informacyjnego jako: , potencjał informacyjny punktu A, będzie wynosił n.10-23 Vi.
Potencjał informacyjny danego punktu będzie miał wartość 1Vi, jeśli w tym punkcie będzie się znajdować 1/6 mola bitów informacji. Farada informacyjnego Fi można określić na podstawie wzoru:



Nośniki materialne i energetyczne mogą być utożsamiane ze względu na związek energii z masą (E = mc2).
Zawsze można przeliczyć masę na energię, a tę (jako najmniejszy nośnik informacji) z kolei na informację, przenoszoną za pomocą nośnika. Nośnik informacji nie może być równy zeru. Można zatem teoretycznie przeliczyć jaką maksymalną ilość informacji może zawierać (informacja związana), lub przenosić (informacja swobodna) dana masa lub energia.
Przykładowo obliczmy, ile maksymalnie informacji może zawierać jeden gram substancji. Maksymalną ilość informacji związanej w strukturze systemu można obliczyć ze wzoru:
,
gdzie:
m – masa systemu
c - prędkość światła
k - stała Boltzmanna ()
T – temperatura w kelwinach.

Można również podać wzór na maksymalna ilość informacji swobodnej jaką system może emitować bez gwałtownej zmiany swojej struktury wewnętrznej. Ilość tę obliczamy ze wzoru:

,

gdzie:
- współczynnik emisyjności danego ciała,
S – powierzchnia systemu.
t – czas emitowania informacji,
h – stała Plancka (h = 6,62.10-34Js
 - częstotliwość emitowanych kwantów.

Maksymalna ilość informacji związanej zawartej w jednym gramie substancji zależy, jak widać, od temperatury. Zakładając, że osiągnęliśmy temperaturę 1 K, wówczas w 1 g substancji jest



Łatwo obliczyć, że w jednym elektronie nie może być więcej niż 8,4.109 bitów. Przyjmując, ze w całym znanym obecnie Wszechświecie jest około 1080 atomów można oszacować, że nie może się w nim zmieścić więcej niż 10100 bitów informacji.
Każdy system oprócz maksymalnej informacji związanej, jaką może posiadać, posiada również potencjał informacyjny [10], a także moc informacyjną . Potencjał informacyjny systemu zależy, podobnie jak potencjał elektryczny, od pojemności, zgodnie ze wzorem: . Zatem jedynie moc informacyjna systemu decyduje o jego jakości. Często jednak nadmiar informacji, jak wiadomo sprawia nam kłopot, ponieważ nie wiemy, która z posiadanych informacji jest najważniejsza. Otóż najważniejsze są te, które mają największą moc informacyjną, tzn. mają duży iloczyn „siły ssąco-tłoczącej” [4, 9] oraz dużą prędkość przepływu. Jaki możemy mieć pożytek z informacji, która jest zmagazynowana i nie można jej przekazywać? Jedynym i najważniejszym pożytkiem jest to, że tworzy ona taką lub inna strukturę systemu, jest ona jednak nie użyteczna przy organizowaniu otoczenia, chyba, że stanowi jakiś ważny element systemu. Informacje swobodne o dużej mocy mają zdolność do pokonywania oporów informacyjnych, ponieważ mają dużą prędkość przepływu v. Moc jak wiadomo wyraża się wzorem:

,

Według M. Mazura [7] moc systemu wyraża się wzorem:



gdzie:
a – jakość tworzywa,
c – ilość tworzywa.
- moc jednostkowa tworzywa, czyli informacyjna moc właściwa systemu.
Jakość tworzywa, albo inaczej informacyjna moc właściwa systemu wiąże się z jego odpornością na wzrost entropii. Takim tworzywem odpornym na wzrost entropii jest między innymi woda, która swą odporność na jej wzrost zawdzięcza prawdopodobnie wodorowi. Wodór, jak się okazuje ma, ciepło właściwe jedno z największych, z pośród znanych substancji występujących w przyrodzie i wchodzi do prawie wszystkich związków organicznych, dlatego zarówno wodór, jak i woda, są głównymi składnikami wszystkich organizmów żywych. Fakt ten świadczy o tym, że to nie organizmy wybierały sobie odpowiednie tworzywo na budowę swych organizmów, jak głosi ewolucyjna teoria przypadkowego doboru, ale to Bóg Stworzyciel projektując organizmy żywe stworzył dla nich najodpowiedniejsze tworzywo.

4.Antyentropijne tworzywa organizmów żywych

To, że tworzywem organizmów żywych nie jest ciało stałe lub gazowe, ale substancja płynna można zapewne uzasadnić większym bogactwem jej możliwości fizycznych -dynamiczno- organizacyjnych. Woda okazała się najlepszym tworzywem organizmów żywych z kilku względów, z których pierwszy i najważniejszy, to ten, że ma ona, po wodorze i helu, największe ze wszystkich ciał występujących w przyrodzie, ciepło właściwe. Zawdzięcza je prawdopodobnie wodorowi, który jest najlżejszy. Ciepło właściwe wodoru wynosi , a wody . Ciepło właściwe helu wynosi ; jest ono wprawdzie większe od ciepła właściwego wody, ale hel jest gazem szlachetnym, który nie łączy się z innymi pierwiastkami. Nie przypadkowym jest również fakt, że wodór prawdopodobnie dzięki temu, że posiada największe ciepło właściwe, wchodzi w skład wszystkich związków organicznych. Poza tym warto również zauważyć, że wszystkie pierwiastki śladowe, z których zbudowane są organizmy żywe mają stosunkowo duże ciepło właściwe. Dokonując przeglądu pierwiastków śladowych występujących w organizmach żywych można się łatwo o tym przekonać. Dlaczego akurat ciepło właściwe jest tym kryterium wyboru danej substancji na tworzywo organizmów żywych? Fakt ten wynika z zasady zachowani informacji i wiąże się ściśle z pojęciem entropii. Okazuje się, że ciała posiadające duże ciepła właściwe są odporne na wzrost entropii, czyli bałaganu tzn. braku uporządkowania organizacyjnego[10]. Czyż nie jest to wspaniałe – posiadać organizm odporny na bałagan? Wzrost entropii w organizmach prowadzi do śmierci niszcząc ich strukturę i organizację. Przyrost entropii, jak wiadomo określa się wzorem:

.

Z definicji tej widać, że im mniejsze ciepło właściwe ciała, tym mniejsza ilość ciepła jest potrzebna do ogrzania danej masy m o 1 K i odwrotnie – im większe ciepło właściwe, tym więcej trzeba dostarczyć ciepła, aby temperatura danego ciała wzrosła o 1 K. Stąd wniosek, że ciała o dużym cieple właściwym są odporne na wzrost entropii, czyli są zdolniejsze do zachowania swojej organizacji wbrew destrukcyjnym oddziaływaniom środowiska.
Niektórzy twierdzą, że ewolucji i kolejnym przypadkowym doborom naturalnym zawdzięczamy swe życie, ale jak wynika z zasady zachowania informacji, to jednak Stwórca zaprojektował nam ten wspaniale zorganizowany świat. Determinizm (w którym przyjmuje się istnienie podstawowych praw natury) i przypadkowość (w której metody statystyczne odgrywają podstawową rolę w poznawaniu pewnych zależności), pozornie niczym istotnym w zasadzie się nie różnią, prowadzą bowiem w efekcie do tego samego poznawania świata, chociaż drogi poznawania go i przyjęte założenia początkowe są różne. Nic bowiem przypadkowego w świecie się nie zdarza, człowiek jedynie, który nie zna dokładnie praw przyrody może tak sądzić. Można, zatem z całą pewnością twierdzić, że nie tylko „na początku była informacja”, ale jest i będzie zawsze obecna i decydująca (chociaż jest ograniczona ze względu na swój nośnik materialno-energetyczny), to jednak informacja jest nieskończona, ze względu na ciągłe przemiany jakie się obserwuje.


Uzupełnienie do Zasady Zachowania informacji dowodem istnienia Boga
Zasada zachowania informacji wraz z powszechną Zasadą przekory oraz prawami przepływów i ciągłości stanowią moim zdaniem dowód na istnienie Boga. Nikt bowiem, ani nic, oprócz Boga,.nie mogło stworzyć tak cudownych wspaniałości. Na początku, bowiem, był chaos i panowała Ciemność. To boska potęga stworzyła te wspaniałe prawa, które człowiek stopniowo poznaje. Ostatnią i wydaje się chyba, że dość trudną do zrozumienia, a jednocześnie najważniejszą jest zasada zachowania informacji.
Na początku, aby było wiadomo o co chodzi, podam fizyczną definicję informacji, Otóż, informacja jest defektem entropii, Entropia jest chaosem, który był na początku istnienia świata. To Pan Bóg wprowadził ten defekt do entropii (czyli do chaosu)- zgodnie z teorią Prof. Gitta.
Zasadę przekory można, wysłowić w sposób następujący:
„W warunkach równowagi, każdy skutek wywołany pewną przyczyną skierowany jest przeciwko tej przyczynie, która go wywołała”
Przykładami jej mogą: być trzy zasady dynamiki Newtona, zasada Faraday'a na siłę elektromotoryczną indukcji, zasada Le Chateliera znana chemikom, walka i jedność przeciwieństw w filozofii materialistycznej, symbol tao w filozofii hinduskiej, Ying i Yang w filozofii chińskiej, ujemne sprzężenie zwrotne nie tylko w automatyce ale szeroko występujące w przyrodzie żywej, zasada przekory występująca w psychologii, twierdzenie Gedla i zbiory rozmyte w matematyce. W Piśmie Świętym jest ona również szeroko reprezentowana np. W stwierdzeniach ”Kto się wywyższa, będzie poniżon”, „Ostatni będą pierwszymi” „ Jeśli uderzą cię w jeden policzek nadstaw drugi”. Podobnie i zasada zachowania informacji, zawarta jest w sformułowaniu: „z prochu powstałeś i w proch się obrócisz”.
Bardzo ważne są również ogólne prawa przepływów, w których zgodnie ze stwierdzeniem Heraklita z Efezu, wszystko płynie. Heraklit nie znał, oczywiście, praw przepływów, które odkryte zostały dopiero w połowie XIX wieku. Obecnie wiemy, już nawet zgodnie z jakimi prawami płynie, materia, energia, ładunek elektryczny, możemy się domyślać, że informacja, a także emocje płyną również zgodnie z ogólnymi prawami przepływów. Wiadomo już, że każdy z tych przepływów napotyka pewne opory, rzeczywiste, pozorne i urojone, a każdy przepływ zachodzi pod wpływem ściśle określonych bodźców. Najbardziej ogólnym prawem przepływu jest prawo Naviera Stokesa, z którego wynikają m. in. Równania Maxwella.
Do znanych praw przepływów należą między innymi: Prawa Ohma – dotyczące prądu elektrycznego, prawo Fouriera – dotyczące przepływu ciepła, Prawo Poiseuilla – dotyczące przepływu cieczy, prawa Ficka – dotyczące przepływu substancji w rozpuszczalnikach czyli prawa dyfuzji, prawo Darcy- dotyczące przepływu cieczy w ośrodkach porowatych. Wszystkie wymienione prawa przepływów są analogiczne do siebie w najdrobniejszych szczegółach. Fakt ten ośmielił mnie do postawienia hipotezy:proponującej przyjęcie, praw dotyczących przepływów informacji i emocji na zasadzie analogi do znanych praw przepływów i obowiązujących w nich szczegółowych podobieństw - . W związku z tym wprowadziłem pojęcia analogiczne do pojęć istniejących w polach dotyczących przepływu prądu elektrycznego u których podstaw leżą prawa Maxwella. Na podstawie wprowadzonych pojęć, analogicznych do pojęć występujących w polu elektromagnetycznym, opracowałem teorię pola informacyjno-emocjonalnego. Polu przepływowemu prądu elektrycznego przyporządkowałem pole działania, polu elektrycznemu przyporządkowałem pole informacyjne, a polu magnetycznemu pole emocjonalne. Nazwy jednostek wprowadzonych wielkości przyjąłem podobnie do przyjętych w polu elektromagnetycznym i podobnie je zdefiniowałem. Mam nadzieję, że ta koncepcja pozwoli być może na dalsze zgłębianie wiedzy o człowieku i otaczającym go świecie.
Należy zaznaczyć, że równie ważne, jak prawa przepływów, są prawa ciągłości, do których należy między innym pierwsze prawo Kirchhoffa, które mówi, że tyle ile prądu (ładunku) dopływa do danego węzła, tyle musi z niego odpłynąć podobnie jest z ciągłością cieczy (prawo Bernouliego). Zasady zachowania (ładunku, masy i energii) są w istocie prawami ciągłości. Dlatego aby można było mówić i wprowadzać pewne analogie z przepływem prądu, a dotyczące przepływu informacji, należało się zastanowić nad zasadą zachowania informacji.

Każdy transport informacji związany jest z dyssypacją energii, a zatem ze wzrostem entropii otoczenia. Dla procesów nieodwracalnych w systemach otwartych spełnione jest równanie:
dS = dsS + dxS
gdzie:
dS – sumaryczna zmiana entropii układu i otoczenia,
dsS – zmiana entropii systemu,
dxS – zmiana entropii otoczenia,
albo inaczej:
-dsS = dxS – dS
oznacza to, że defekt entropii systemu jest równy zmianie entropii otoczenia zmniejszonej o sumaryczną zmianę entropii systemu i otoczenia.
Systemem niezorganizowanym o maksymalnej entropii jest zbiór elementów całkowicie od siebie niezależnych.
Matematycznie rzecz biorąc zdarzenia A i B są niezależne, jeżeli prawdopodobieństwo iloczynu tych zdarzeń jest równe iloczynowi ich prawdopodobieństw tzn. gdy: P(A B) = P(A).P(B). Ta definicja zdarzeń niezależnych leży u podstaw przyjętych aksjomatów w rachunku prawdopodobieństwa. Dlatego też można powiedzieć, że entropia systemu, w skład którego wchodzą elementy od siebie niezależne, jest równa sumie, entropii poszczególnych elementów. Entropię systemu składającego się np. z dwóch niezależnych od siebie elementów X1 i X2, będących w skrajnie niezorganizowanym stanie oznaczmy przez Sn, możemy wówczas napisać, że:
Sn(X1, X2) = S(X1) + S(X2)
Jeżeli natomiast w systemie wytworzą się pewne sprzężenia między elementami tzn. nastąpi określona organizacja systemu, wówczas ogólna entropia systemu So będzie mniejsza od sumy entropii poszczególnych elementów czyli:

So(X1, X2) = S(X1) + (X2/X1) = S(X2) + (X2/X1)  S(X1) + S(X2)
a zatem w wyniku organizacji systemu entropia jego zmniejszy się w stosunku do entropii maksymalnej systemu niezorganizowanego Sn.
To zmniejszenie się entropii systemu można uważać za miarę jego organizacji Os, równej defektowi entropii wyrażającej się wzorem:
Os = dsS = Sn – So = S(X1) + S(X2) - So(X1, X2) =
= S(X2) – S(X2/X1) = S(X1) - S(X1/X2)
Jeżeli ostatnie równanie podzielimy przez Sn = Smax, to otrzymamy znany w literaturze wzór na względny nadmiar informacji związanej zawartej w danym systemie. Ten względny nadmiar informacji nazywa się redundancją i oznacza się go literką R.

gdzie:
względny nadmiar informacji R wyraża się wzorem:

Z powyższych rozważań wynika, że organizacja systemu nie może być większa, niż jego maksymalna entropia, oznacza to, że system całkowicie zorganizowany, to taki, w którym wszystkie elementy są wzajemnie ze sobą powiązane to znaczy zależą od siebie wzajemnie, zachodzi to wówczas gdy So = 0. Jeżeli natomiast So = Smax, to organizacja systemu
Os = 0. Pojęcie defektu entropii występujące w niniejszej pracy wprowadzone zostało do teorii informacji przez analogię do pojęcia defektu masy występującego w wiązaniach jądrowych, a opisanego wzorem:
E = mc2,
gdzie:
m -defekt masy,
c - prędkość światła.
Brillouin podał wzór analogiczny do defektu masy, na defekt entropii czyli informację związana (oznaczoną przez Brilouina przez: Ib1) zawartą w systemie zorganizowanym,

w postaci:

gdzie:
Ib1 - informacja związana zawarta w systemie zorganizowanym,
k - stała Boltzmanna,
po - prawdopodobieństwo stanu systemu niezorganizowanego,
p1 - prawdopodobieństwo stanu systemu zorganizowanego.
Myśl zawartą w powyższym wzorze Brillouin nazywa negentropijną zasadą informacji. Na tę zasadę powołuje się również Lewitin w pracy [11], w której wprowadził po raz pierwszy pojęcie defektu entropii. Pojęcie defektu entropii szczegółowo omawia, W.W. Mitiugow [8] powołując się na prace Brilouina i Lewitina.
Brillouin, obok pojęcia informacji związanej, wprowadził pojęcie informacji swobodnej. Odpowiednikiem pojęcia informacji swobodnej L.Brillouina w mojej pracy habilitacyjnej, jest strumień, albo inaczej przepływ informacji wypływającej ze źródła i rozpływającej się po różnych opornościach informacyjnych zgodnie z równiami Laplace'a i Poissona.
Energia i masa, która (można tak powiedzieć) jest „magazynem” energii są nośnikami informacji. Informację swobodną i związaną należy kojarzyć z energią swobodną i związaną. Energię swobodą oznacza się literą F, a energię związaną oznacza się przez ST (S – entropia, T – temperatura bezwzględna) . Energia swobodna jest nośnikiem informacji swobodnej, Energia związana jest nośnikiem informacji związanej.
Energia wewnętrzna systemu U jest nośnikiem energii swobodnej i związanej i wyraża się wzorem:
U = F + ST.
Zmianę energii swobodnej można wyrazić wzorem:
∆F=∆U – S∆T

Odpowiednikiem pojęcia informacji swobodnej L.Brillouina w mojej pracy [10] jest strumień, albo inaczej przepływ informacji wypływającej ze źródła i rozpływającej się po różnych opornościach informacyjnych zgodnie z równiami Laplace'a i Poissona.
Na zakończenie, chciałbym odpowiedzieć na trzy bardzo ogólne pytania, pozornie tylko nie związane z referatem, ale bardzo istotne.
PYTANIE 1. Czym człowiek, różni sie od zwierzęcia i od otaczającego go świata?
PYTANIE 2. Na czym polegają braki filozofii materialistycznej?
PYTANIE 3. Na czym polega współczesna tragedia współistnienia wyznawców różnych religii?
Jakie są według mnie odpowiedzi na te pytania?
Odpowiedź na 1. pytanie
Człowiek tym się różni od otaczającego świata, że oprócz tego, że posiada duszę,
a może właśnie dlatego, może on tworzyć różne idee i je realizować

Odpowiedź na 2. pytanie
Braki filozofii materialistycznej polegają na tym, że uznaje ona jedynie rozum jako ostateczne narzędzie poznania otaczającego świata, nie uwzględniając faktu, że rozum człowieka ma ograniczone możliwości. Filozofia materialistyczna nie uwzględnia poznania przez wiarę (tj. objawienie, intuicję i emocje).WEDZA, WIARA i PRACA są bowiem trzema podstawowymi elementami (bytami) wzajemnie się uzupełniającymi i nie mogą być traktowane jako odrębne i przeciwstawne sobie. (www.realizatorzy.plv.pl)

Odpowiedź na 3. pytanie
Tragedia wyznawców różnych religii polega na tym, że wszyscy uważają iż tylko ich religia jest jedynie słuszna. Uwidacznia się tu pycha i żądza władzy (Każdy z hierarchów chce być ważny i mieć pewną władzę dusz). W tym przypadku uwidacznia się wyraźnie słabość natury ludzkiej.
Intencją II Soboru Watykańskiego i kościoła katolickiego jest, aby tej tragedii zapobiec. Nadzieją jest „Jeden pasterz i jedna owczarnia”- miłość Boga i i ludzi oraz wzajemne zrozumienie. Być może, że Globalizm stanie się przyczyną spełnienia tej nadziei, chociaż wizja globalizmu jest zupełnie inna. Globalizm ma nadzieję – na zdobycie absolutnej władzy i podporządkowania wszystkich ludzi jednej niewielkiej grupie, jakże jednak ułomnych ze swej natury ludzi.
Ludzi nie wierzących, w istocie nie ma. Każdy w coś wierzy. Jedni wierzą w Boga inni
w materię, a jeszcze inni w mamonę, lub we władzę, każdy ma wolną wolę i ograniczony umysł, wierzy w to co uważa, że powinien wierzyć. Fizycy też wierzą w zasady zachowania.



Bibliografia

[1] Brillouin L., Nauka a teoria informacji Warszawa, 1969.
[2] Gabor D., CommcuniationTheory and Physics, Phil. Mag. 41, 7, 1950.
[3] Lechowski J., Modelowanie elektryczne pola informacyjnego w strukturach biologicznych,
Materiały III Sympozjum PTFM, Zabrze 1972.
[4] Lechowski J., Analiza możliwości modelowania elektrycznego przepływu informacji
w środowisku, Postępy Cybernetyki, 3, 1983.
[5] Smoluchowski M., Granice stosowalności drugiej zasady termodynamiki, [W:] Wkład polskich uczonych do fizyki statystyczno-molekularnej, PWN, Warszawa 1962.
[6] Szilard L., Űber die Entropieverminderung in einem termodynamischen System bei Eingriffenin intelligenter Wessen, Zeitschrift fur Physik, Bd 53, Berlin 1928.
[7] Mazur M., Cybernetyczna teoria układów samodzielnych, PWN Warszawa 1966.
[8] Mitiiugow W. W., Fizyczne podstawy teorii informacji, PWN, Warszawa 1980.
[9] Lechowski J., Zastosowanie zasady zachowania informacji w układach izolowanych, Postępy Cybernetyki, 3, 1987.
[10] Lechowski J., Analiza możliwości modelowania elektrycznego przepływu informacji
w organizmie człowieka i jego otoczeniu, Praca habilitacyjna, AIS, San Marino 1994.






Wyświetleń: 2138


Uwaga! Wszystkie materiały opublikowane na stronach Profesor.pl są chronione prawem autorskim, publikowanie bez pisemnej zgody firmy Edgard zabronione.