Fizyka po Einsteinie

 

 

NOTA BIOGRAFICZNA
                PROF. JERZEGO LUKIERSKIEGO

Prof. dr hab. Wojciech Sitek prowadzący spotkanie: Jerzy Lukierski urodził się w 1936 r.
w Warszawie. Jego rodzice, z zawodu nauczyciele, po wojnie postanowili przeprowadzić się na Dolny Śląsk. Ukończył on następnie we Wrocławiu kolejne szkoły: w 1952 r.
I Liceum Ogólnokształcące, a w 1956 Uniwersytet na Wydziale Matematyki, Fizyki i Chemii.

W studenckim gronie uznawany był za człowieka posiadającego artystyczną duszę. Był autorem paru jednoaktówek dla teatru „Kalambur”, napisał także pełnospektaklową sztukę, pt. Ananas dojrzewa powoli, która została wystawiona w teatrach zawodowych, m.in. w Poznaniu i Zielonej Górze. Swoje naukowe
i artystyczne pasje łączył z aktywną działalnością sportową. W 1955 r. został mistrzem Polski juniorów w skoku w dal.

Po licznych sukcesach w różnych dziedzinach, Lukierski postanowił ograniczyć inne działalności, prócz tej jednej — naukowej. Wszystkie swoje zdolności, pracowitość
i ambicję skoncentrował na fizyce, zdradzając dla niej tym samym sport
i dramaturgię.

Z łatwością zdobywał kolejne tytuły naukowe, gdyż był naprawdę znakomity
w tym, co robi. W maju 1961 r. obronił pracę doktorską, pod kierunkiem prof. Jana Rzewuskiego. W latach 1962–1965 wyjechał za granicę. Później miał wstrzymane wyjazdy
z PRL, gdyż miał problemy z paszportem, ze względu na swój przedłużony pobyt w Indiach. Fakt ten nie opóźnił jednak, nawet w najmniejszym stopniu, jego rozwoju naukowego.
W 1967 r. obronił habilitację na Uniwersytecie Wrocławskim, w 1974 r. uzyskał tytuł profesora nadzwyczajnego, a w 1983 r. zwyczajnego.

W latach 1977–1990 prof. Lukierski był zastępcą dyrektora Instytutu Fizyki Teoretycznej Uniwersytetu Wrocławskiego d/s naukowych, a od września 1990 r. jest jej dyrektorem. Był promotorem 15 doktoratów, wydał ponad 250 publikacji. Ma uznanie
w wielu ośrodkach naukowych o międzynarodowej renomie. Jest wybitnym naukowcem, jego prace odznaczają się wyjątkowymi pomysłami i oryginalnością. Za swoje osiągnięcia otrzymał parokrotnie nagrody Ministra Edukacji Narodowej, a w 1995 r. został laureatem nagrody im. Marii Skłodowskiej–Curie, najważniejszej polskiej nagrody naukowej
w dziedzinie fizyki i chemii, przyznawanej w latach nieparzystych fizykom, a w latach parzystych chemikom. W obecnej kadencji (1999–2003) jest vice–przewodniczącym Komitetu Fizyki Polskiej Akademii Nauk.

Ma żonę, Elżbietę, utalentowaną artystkę, młodszą od niego o 26 lat. Jest ojcem dwójki dzieci: Roberta i Urszuli. Chętnie pomaga swym studentom, udziela im często swoich rad. Zawsze przyjazny i otwarty w stosunku do ludzi, spotyka się z powszechnym uznaniem
i szacunkiem.

 

 

 


 

 

 

 

Prof. Jerzy Lukierski

 

WYKŁAD

Albert Einstein dokonał swoich najważniejszych odkryć w pierwszym dwudziestoleciu XX wieku, a więc blisko 100 lat temu. Sporo zdarzyło się od tego czasu. Fizyka ma wiele twarzy, więc będę mówił tylko o tej, która się łączy z nazwiskiem Einsteina. Jest to kierunek badań, który dotyczy podstawowych praw fizycznych opisujących strukturę materii i jej składniki. Odnosi się on do budowy naszego świata od strony mikro — dotyczy najmniejszych elementarnych składników materii. Jest to domena fizyki relatywistycznej i kwantowej.

Czy to jest ważny dział fizyki? Uważam, że bardzo ważny i działający na wyobraźnię. Jest tutaj paru moich kolegów, mających nieraz, nawet na najważniejsze sprawy w fizyce, trochę inny pogląd od mojego, co zapowiada ciekawą dyskusję.

Duża część nagród Nobla z fizyki dotyczy osiągnięć wynikłych
z zastosowania teorii względności i teorii kwantowej. Większość tych wyników, premiowanych nagrodą Nobla, odnosi się w zasadzie do dokonań natury teoretycznej.

Fizyk-teoretyk może sobie postawić następujące cztery pytania, dotyczące opisu podstawowej struktury materii:

I.                    Jakie są podstawowe składniki materii, tzn. jeżeli dokonujemy eksperymentu, to jakie mikroobiekty są na danym etapie badań uważane za najmniejsze elementarne i niepodzielne?

II.                 Jakie siły działają między elementarnymi składnikami materii?

III.                W jakiej przestrzeni w mikroświecie zachodzą procesy fizyczne?

IV.                Jakie symetrie ma zaproponowana przestrzeń i sformułowana w niej teoria? Wychodząc od pojęcia nowych symetrii wprowadza się supersymetrie, superstruny, superprzestrzeń i tzw. Teorie Wszystkiego.

 

Moje wprowadzenie będzie dotyczyło wyżej wymienionych pytań. Przed Einsteinem mieliśmy fizykę nierelatywistyczną. Jej podstawowym aksjomatem jest niezależność przestrzeni i czasu. W fizyce nierelatywistycznej mówi się, że czas jest parametrem, a przestrzeń to trójwymiarowa przestrzeń, w której dzieją się zjawiska.

Na początku XX wieku nieznany urzędnik biura patentowego w Bernie opracował teorię, która zmieniła naszą wizję świata. Została ona nazwana teorią względności, mimo, że podstawowym postulatem, na którym się ona opiera, jest założenie bezwzględnej wartości liczbowej dla pewnej wielkości fizycznej, którą jest prędkość światła w próżni (w dalszej części moich rozważań mówić będę po prostu „prędkość światła”).

W swoich pamiętnikach Leopold Tyrmand pisze, że wiek dwudziesty ukształtowany został przez trzy wielkie nurty myślowe, związane z nazwiskami Marksa, Freuda i Einsteina. Niewątpliwie tymi postaciami został naznaczony cały wiek dwudziesty.

Pierwsze dwudziestolecie XX wieku to epoka odkryć Einsteina. Najpierw powstała w 1905 r. szczególna teoria względności, która połączyła przestrzeń i czas, wprowadzając czasoprzestrzeń relatywistyczną, a następnie, dziesięć lat później, została sformułowana ogólna teoria względności. Ta ostatnia mówi nie tylko o czasie
i przestrzeni, ale także o pewnej fizycznej interpretacji zakrzywionej czasoprzestrzeni, związanej z istnieniem oddziaływań grawitacyjnych.

W następnym dwudziestoleciu powstały teorie kwantowe, które stały się nowym, obecnie chyba najważniejszym działem fizyki teoretycznej. Korzystamy w niej
z następujących czterech podstawowych teorii dynamicznych:

I.                    mechaniki klasycznej;

II.                 mechaniki kwantowej — otrzymuje się ją przez kwantowanie mechaniki klasycznej (stała Plancka);

III.               klasycznej teorii pola — przykładem mogą być teorie pola magnetycznego, elektrycznego, grawitacyjnego oraz prawa oddziaływania mas i ładunków elektrycznych: Newtona i Coulomba;

IV.              kwantowej teorii pola — otrzymanej przez skwantowanie klasycznej teorii pola. Skwantowana klasyczna fala elektromagnetyczna opisuje fotony: są to obiekty, które mają określone energie, ale zgodnie z zasadą nieoznaczności, nieokreślone położenie. Podobnie rzecz się ma
w kwantowej teorii grawitacji: fale grawitacyjne zadają grawitony, obiekty, które mają określone energie, lecz nieokreślone położenie.

Fizyka nowoczesna, która powstała w XX w. stoi zatem na dwóch filarach: relatywiźmie Einsteina i na kwantowości (której wyrazem teoretycznym jest np. mechanika kwantowa). Z kolei teoria, która jest używana do opisu cząstek elementarnych, powstała
w latach trzydziestych XX w. i nazywa się kwantową teorią pola. Prowadzi ona do kwantowej teorii oddziaływań cząstek elementarnych, ale niestety nie można było jej stosować rachunkowo bez ograniczeń do obliczenia sił między obiektami elementarnymi. Powstawały w trakcie rachunków bardzo nieprzyjemne nieskończoności. Sposobem na ich usunięcie okazała się tzw. teoria renormalizacji[1], która przystosowała kwantową teorię pola do jej pragmatycznej roli — wykonywania pewnych rachunków, które pozwalają na porównywanie teorii z doświadczeniem. W 1949 r. bardzo ważne doświadczenie Lamba[2] pokazało, że kwantowa teoria pola jest bardzo przydatna do obliczania efektów, które obserwujemy
w doświadczeniach.

Są takie nazwiska przed którymi fizycy–teoretycy pochylają głowy:
Wernera Heisenberga[3], Erwina Schrödingera[4] i Paula Diraca[5]. Stworzyli oni schemat teorii kwantowych: pierwszych dwóch — mechaniki kwantowej, a trzeci — kwantowej teorii pola. Kwantowe podejście mówi, że nie można dokonywać wszystkich pomiarów
z dowolną dokładnością — istnieją pary tzw. pomiarów komplementarnych,
w których jeżeli jeden wykonamy z większą, to drugi możemy wykonać tylko
z odpowiednio mniejszą dokładnością. Błędy pomiaru są zapisywane zgodnie z tzw. zasadą nieoznaczoności Heisenberga, która wprowadza stałą Plancka[6]. W fizyce oznacza to, że
w mikroświecie nie można wykonać wszystkich możliwych pomiarów z dowolną dokładnością. Przykładem może być tu położenie i pęd. Jeżeli znamy dokładnie położenie, to nie możemy dokładnie zmierzyć prędkości lub pędu. Jeżeli znamy dokładnie czas, w którym badamy jakieś zdarzenie, to nie możemy znać dokładnie energii. To jest podstawowa własność teorii kwantowej. Inna jej charakterystyka dotyczy wyników niektórych pomiarów: nie mogą być one opisane przez dowolne liczby, lecz tylko przez takie, które tworzą określony zbiór dyskretny, tzn. nieciągły. Przykładem takich liczb są wielkości kwantów energii, określone np. przez zmiany poziomów energetycznych atomu.

Następnym ważnym postulatem w teorii kwantowej jest to, że daje ona jedynie prawdopodobieństwo uzyskania określonych wyników pomiaru, np. określonego położenia czy żądanej energii. Podstawowym obiektem, opisującym stan układu kwantowego, jest funkcja falowa, która umożliwia uzyskanie prawdopodobieństwa pomiaru. Determinizm, jako opis ewolucji w czasie, dotyczy tu funkcji falowej, a nie samych wartości pomiarów.

Teraz przejdziemy do kwantowej teorii pola. Elektrodynamika kwantowa jest w obecnej chwili bardzo dokładną teorią fizyczną, wzorują się na niej inne teorie
(np. chromodynamika kwantowa). Jest ona przykładem tzw. teorii pól cechowania.
W kwantowej teorii pola został zrealizowany dualizm między falami i materią, który można także opisać jako dualizm między siłami i źródłami. Siły oddziaływania mają dualną naturę — mogą być opisane jako fale lub jako wymiana wirtualnych cząstek.

W klasycznym ujęciu źródłami pola są ładunki elektryczne, pomiędzy którymi działają siły w postaci statycznej (potencjał Coulomba) lub poprzez emisję
i absorbcję fal elektromagnetycznych. Jeżeli chcemy opisać jak oddziałują elektrony to wymieniamy tzw. wirtualne fotony między nimi, a jeśli chcemy zbadać oddziaływanie pomiędzy fotonami, to wymieniamy wirtualne elektrony. W kwantowej teorii pola pole kwantowe spełnia jednocześnie dwie role — opisuje źródła materii oraz oddziaływania między materią. Opis oddziaływania w kwantowej teorii pola jest ściśle związany z nową możliwością, której nie obejmuje mechanika kwantowa: opisu kreacji i anihilacji cząstek.

Dirac, wprowadzając kwantową teorię pola, musiał brać pod uwagę również antycząstki, z których jest zbudowana tzw. antymateria. Najpierw to pojęcie było wyprowadzone teoretycznie, a potem dopiero zostało potwierdzone doświadczalnie. Historia odkrycia antymaterii jest wspaniałym dowodem na to, jaką siłę może mieć teoria. Bardzo trudno jednak antycząstkę zobaczyć, bo szybko jest anihilowana przy zderzeniu z materią.

Okazuje się, że kwantowe teorie pola, które służą do opisywania elementarnych składników materii, dzielą się na „dobre” i na „złe”. Model Standardowy, używany obecnie do obliczeń związanych z oddziaływaniem cząstek, jest „dobrą” kwantową teorią pola. Natomiast „złą” jest kwantowa grawitacja, gdyż można udowodnić, że nie sprawdzają się
w niej pewne metody rachunkowe, które mają zastosowanie w Modelu Standardowym. Rozwój nowych koncepcji teoretycznych polega w dużej mierze na wprowadzeniu uogólnień modelu kwantowej grawitacji, aby stała się ona „dobrą” kwantową teorię pola. W ramach opisu „złych” teorii, które poprzez matematyczny trick stają się „dobrymi”, powstał wcześniej wspomniany program renormalizacji.

Przejdziemy teraz do chyba najważniejszego problemu podstaw fizyki teoretycznej — opisu geometrycznego klasycznej i kwantowej teorii grawitacji. Einstein „zakrzywił” czterowymiarową czasoprzestrzeń i otrzymał, w wyniku logicznego rozumowania, teorię grawitacji. Prawie cały słynny wykład Riemanna z 10 czerwca 1854 r. na temat jego nowej geometrii znalazł swoje odbicie w teorii Einsteina z 1915 r., a sam tensor metryczny okazał się zapisem pola grawitacji. Cztery lata później Kaluza (niektórzy wymawiają Kałuża, gdyż miał polskie pochodzenie), wprowadził pięciowymiarową czasoprzestrzeń, a mianowicie cztery składowe przestrzenne i czas. W 1919 r. Einstein został zaskoczony listem otrzymanym od nieznanego mu matematyka Theodora Kaluzy z Königsbergu, który zaproponował rozwiązanie problemu połączenia, czyli unifikacji teorii grawitacji z teorią światła Maxwella. Otóż Kaluza dodał jeden wymiar przestrzenny do czterowymiarowej czasoprzestrzeni Einsteina i założył, podobnie jak kiedyś Riemann, że światło jest zaburzeniem spowodowanym przez "pofałdowanie" tego piątego wymiaru. Okazało się, że te pięciowymiarowe równania grawitacji Kaluzy zawierają w sobie czterowymiarową teorię Einsteina (czego należało oczekiwać) wraz z pewnym dodatkiem, którym była dokładnie teoria światła Maxwella, czyli teoria pola elektromagnetycznego.

Pięciowymiarowa teoria grawitacji łączyła i opisywała, przez zakrzywienie piątego wymiaru, teorię grawitacji Einsteina i teorię pola Maxwella. Następnie w 1925 r. Klein zapostulował, że piąty wymiar jest zakrzywiony w prosty sposób — tworzy kółko
o bardzo małym promieniu. Na tej drodze następnie wykazano, że ładunki elektryczne
w przyrodzie są dyskretne, mogą przyjmować tylko wartości będące wielokrotnością ładunku elektrycznego. Powstała wtedy teoria, nazywana obecnie teorią Kaluzy–Kleina, która dopiero w latach sześćdziesiątych i siedemdziesiątych została ponownie wzięta na warsztat badawczy fizyków–teoretyków.

W latach trzydziestych i czterdziestych dwudziestego wieku najważniejszym faktem było przede wszystkim odkrycie wielu nowych cząstek, co stanowiło pewien kłopot dla teoretyków, gdyż coraz trudniej było wprowadzić model oddziaływania dla każdej z nich. W związku z tym zaczęto przypuszczać, że te cząstki elementarne składają się z jeszcze mniejszych, bardziej elementarnych części składowych. Zaczęto ponadto badać tzw. rezonanse[7]. Są to cząstki elementarne, które rozpadają się tak szybko, że często się ich nie obserwuje, tylko wyprowadza z matematycznych rachunków wnioski, że one istniały przez bardzo krótki czas.

Do lat dziewięćdziesiątych wykryto ponad 200 cząstek i rezonansów, zwanych elementarnymi. Powstał problem z tym jak je sklasyfikować. W tym celu wprowadzono
w latach sześćdziesiątych nowe, bardziej elementarne hipotetyczne obiekty elementarne, tzw. kwarki[8], z których są złożone cząstki obserwowane w naturze, jak np. protony czy neutrony w jądrze atomowym. W latach siedemdziesiątych wprowadzono także tzw. gluony, opisujące oddziaływanie między kwarkami. W ten sposób na początku lat siedemdziesiątych powstał model opisujący oddziaływanie kwarków i gluonów — chromodynamika. W tym też czasie fizycy stworzyli teorię, zwaną Modelem Standardowym, która opisuje materię oraz wszystkie (z wyjątkiem grawitacji) siły we Wszechświecie. Potrafi ona wyjaśnić skomplikowane procesy oraz budowę i własności wielu obserwowalnych cząstek przy pomocy niewielu nowych obiektów elementarnych i oddziaływań pomiędzy nimi.

Mamy trzy podstawowe oddziaływania w Modelu Standardowym:

1. Oddziaływania silne — pomiędzy „kolorowymi” kwarkami, przenoszone przez gluony, a jednym z przejawów tych oddziaływań są siły wiążące jądra atomowe. Teoria silnych oddziaływań nazywa się chromodynamiką i została zaproponowana na początku lat siedemdziesiątych. Gluony są lepiszczem pomiędzy kwarkami. Tak jak, powiedzmy, w XIX wieku badano ładunki elektryczne, które oddziałują przy pomocy pola elektromagnetycznego, tak w Modelu Standardowym rozpatrujemy kwarki, które są powiązane polem opisującym kwanty gluonowe.

Kiedy rozpędzone do wielkich energii (rzędu 1000 GeV[9]) jądra zderzają się ze sobą, przez krótką chwilę kwarki i gluony poddane zostają ciśnieniom i temperaturom porównywalnym z ciśnieniem i temperaturą panującą we wnętrzach gwiazd. W tych ekstremalnych warunkach powstaje nowy, egzotyczny stan skupienia materii zwany plazmą gluonowo-kwarkową.

Chromodynamika kwantowa, czyli teoria oddziaływania kwarków i gluonów,
w zastosowaniach do opisu cząstek elementarnych jest jedną z bardziej skomplikowanych teorii w fizyce teoretycznej. Dość skutecznie opiera się dotychczas wysiłkom badaczy, próbujących przy pomocy dokładnych formuł opisać także zachowanie materii w warunkach ekstremalnych. Nie ulega jednak wątpliwości, że zrozumienie fizyki plazmy gluonowo-kwarkowej będzie miało duże znaczenie nie tylko dla astrofizyki i kosmologii, ale może mieć też konsekwencje praktyczne.

2. Oddziaływania elektromagnetyczne — pomiędzy cząstkami obdarzonymi ładunkiem elektrycznym lub momentem magnetycznym; są przenoszone przez kwanty pola elektromagnetycznego — fotony. Jest to najstarsze i najlepiej zbadane oddziaływanie cząstek elementarnych.

3. Oddziaływania słabe — odpowiedzialne m.in. za oddziaływania neutrin
i rozpady hadronów, a ich nośnikiem są (odkryte w 1983 r.) bozony pośredniczące W±
i Z0. Teoria słabych oddziaływań została sformułowana w latach sześćdziesiątych.

Oddziaływania grawitacyjne, nie uwzględniane w Modelu Standardowym, powodują wzajemne przyciąganie wszystkich ciał i są przenoszone przez kwanty pola grawitacyjnego — grawitony. Jest to najsłabsze ze znanych oddziaływań.

Model Standardowy ma, przynajmniej z perspektywy fizyka–teoretyka, jeszcze wiele wad i nie może być traktowany jako ostateczna fundamentalna teoria oddziaływań elementarnych. Po kilku dziesiątkach lat sukcesów mechaniki kwantowej i powstaniu Modelu Standardowego, przypomniano sobie znowu o teorii Kaluzy-Kleina z lat dwudziestych
i zaczęto wracać do idei wyższych wymiarów. Coraz wyraźniej były widoczne problemy kwantowej teorii grawitacji. Z tych problemów i próby wykorzystania idei Kaluzy i Kleina wyłoniła się teoria supergrawitacji, przedstawiona w 1976 r. przez trzech fizyków
z Uniwersytetu w Stony Brook: Daniela Freedmana, Sergio Ferrarę i Petera van Nieuwenhuizena. Teoria ta, już po dalszych udoskonaleniach, opierała się na jedenastowymiarowej czasoprzestrzeni. Sformułowanie superteorii Kaluzy-Kleina w tylu wymiarach pozwalało także na geometryzację pól, które nazywamy polami fermionowymi.

Superprzestrzeń jest to taka dziwna przestrzeń, w której poza normalnymi współrzędnymi mamy również dodatkowe wymiary, opisane pseudoliczbami, których kwadraty znikają. Tworzą one tzw. algebrę Grassmana. Supersymetria wynika z tego, że do normalnej przestrzeni dodajemy te dodatkowe wymiary opisane pseudoliczbami, wprowadzając tzw. współrzędne nieparzyste. Chcąc zgeometryzować wszystkie oddziaływania cząstek, powinniśmy wprowadzić supersymetrie. Jednym z twórców teorii supersymetrycznych jest fizyk– teoretyk wrocławski, prof. Jan Łopuszański, obecny tutaj na sali.

W ostatnim dwudziestoleciu pojawiły się w ramach teorii supersymetrycznych trzy nowe koncepcje, tzw. „Teorie Wszystkiego”. W latach 80. powstała pierwsza, która była właśnie jedenastowymiarową supergrawitacją, druga była teorią superstrun, a trzecią — tzw. M–teoria.

Teoria supersymetrii implikuje, że do pola grawitacyjnego i do pól Modelu Standardowego należy dodać dużo dodatkowych pól, związanych z wprowadzeniem supersymetrii. W superprzestrzeni można opisać przez jej zakrzywienie nie tylko pole grawitacji, lecz też wszystkie pola Modelu Standardowego, co w konsekwencji prowadzi do modelu tzw. maksymalnie rozszerzonej supergrawitacji. Taki model to jedenastowymiarowa teoria supergrawitacji. Ona to właśnie przez angielskiego wybitnego fizyka–teoretyka Stevena Hawkinga została ogłoszona jako „Teoria Wszystkiego”. Wkrótce jednak jej miejsce zajęła teoria superstrun.

Dlaczego zatem powstała teoria superstrun? Otóż pod koniec lat 80. okazało się, że nawet jedenastowymiarowa supergrawitacja nie jest w pełni „dobrą” kwantową teorią pola. Powstała wówczas nowa teoria, oparta na założeniu, że fizyczne punkty nie są
w rzeczywistości punktami, tylko małymi strunami o wymiarze rzędu 10-33 cm. Punkty
w starych teoriach zamieniono więc na malutkie struny — była to duża rewolucja
w podstawach geometrycznych teorii cząstek elementarnych. W latach dziewięćdziesiątych ustalono teoretycznie, że istnieje jednak pięć w zasadzie równoważnych, lecz różnych modeli superstrun w dziesięciu wymiarach czasoprzestrzeni. Powstało pytanie, który z tych pięciu modeli superstrun jest prawdziwy. Przyjęto punkt widzenia, że należy szukać teorii, w której wszystkie pięć modeli będą specjalnym przypadkiem dla jeszcze ogólniejszej, nowej teorii, tzw. M–teorii, która jest najnowszą „Teorią Wszystkiego”. Swoim formalizmem ma ona objąć zarówno jedenastowymiarową supergrawitację jak i wszystkie pięć teorii superstrun. Jednym z modeli M–teorii jest dwuwymiarowa supermembrana zanurzona w jedenastu wymiarach.

M–teoria postuluje istnienie mikroskopijnych obiektów (wielkości ok. 10-33 cm), które można sobie wyobrazić na podobieństwo strun, prostych lub zwiniętych w pętle,
a także membran i tzw. p–bran (obiektów p–wymiarowych). Wirują one, skręcają się i oscylują nie tylko w czterech znanych wymiarach (trzy przestrzenne i jeden czasowy), lecz także w sześciu lub siedmiu dodatkowych, dla człowieka niewidocznych. To teoria, która obecnie obiecuje syntezę wszystkich nam znanych praw fundamentalnych oddziaływań.

Dlaczego nowa teoria nie może się obejść bez dziesięciu czy jedenastu wymiarów? Dlaczego ich nie widzimy? Uczeni tłumaczą, że podczas ewolucji Wszechświata niewidoczne dla nas wymiary musiały się skurczyć. Obecnie są np. zwinięte w kulki
o średnicy miliardy raza mniejszej niż średnica jądra atomu. Istnienie wielu wymiarów pozwala zaś matematycznie wyjaśnić, dlaczego na co dzień widzimy tak różne rodzaje materii. Czy opis przyrody jako drgających strun i membran w dziesięciu lub jedenastu wymiarach jest prawdziwy zdecydują w ostateczności przyszłe eksperymenty i obserwacje procesów astrofizycznych. Na razie jesteśmy dalecy od potwierdzenia takich koncepcji przez doświadczenie, takie pytania są teraz motorem działań fizyków–teoretyków, badających strukturę matematyczną teorii oddziaływań fundamentalnych w przyrodzie.

Należy podkreślić, że szczególnie ważnym krokiem w tych badaniach są doświadczenia w dziedzinie fizyki wysokich energii, przeprowadzane np. w CERN–ie
w Genewie. W szczególności odkrycie supersymetrii miałoby niezwykle doniosłe znaczenie dla fundamentalnych badań teoretycznych, w których usiłuje się połączyć teorie cząstek elementarnych i grawitacji. Teoria superstrun również przewiduje teoretycznie istnienie supersymetrii. Odkrycie w doświadczeniach cząstek supersymetrycznych byłoby więc ważnym krokiem do jej potwierdzenia, zaś ich brak byłby dla niej (jak również dla wielu nowych koncepcji unifikacji) prawdziwym problemem.

Sformułowanie hipotezy supersymetrii stanowi bez wątpienia jedno
z ważniejszych osiągnięć współczesnej fizyki teoretycznej. Symetria ta jest uogólnieniem relatywistycznych symetrii czasu i przestrzeni, odkrytych na początku XX wieku przez Lorentza i Einsteina. Z punktu widzenia fizyki cząstek elementarnych, supersymetria jest szczególnie ważna, ponieważ umożliwia budowę klasy nowych modeli, będących naturalnym uogólnieniem Modelu Standardowego.

Kończąc moje wprowadzenie do dyskusji chcę podkreślić, że rozwój fizyki teoretycznej jest zorientowany w kierunku opisu coraz mniejszych odległości mikroświata. Klasyczna teoria grawitacji, wprowadzona w 1915 r., ma z kolei ważne konsekwencje dla większych odległości. Jednym z istotnych wniosków wypływających z teorii i równań Einsteina jest istnienie czarnych dziur (opisują one obszar, z którego nie może wydobyć się światło i są w tym sensie doskonale czarne) oraz brak statycznego, symetrycznego modelu wszechświata. Jeżeli model jest symetryczny, to musi się rozszerzać albo kurczyć.
Z obserwacji wynika, że wszechświat się rozszerza, a nawet rozszerza się z przyśpieszeniem, w związku z czym powstał odpowiedni model rozszerzającego się wszechświata, który można wyprowadzić matematycznie.

W przypadku szczególnej teorii względności fakt, że prędkość światła ma wartość stałą wykryto eksperymentalnie, jeszcze przed powstaniem szczególnej teorii względności
w 1905 r. Inna sytuacja wystąpiła w kontekście ogólnej teorii względności, sformułowanej przez Einsteina w 1915 r. W tym przypadku Einstein–teoretyk przewidział zjawiska, których jeszcze nie znano doświadczalnie, a pierwszy eksperyment potwierdzający ogólną teorię względności został przeprowadzony dopiero w cztery lata po jej sformułowaniu.
W astrofizyce uważa się obecnie, że czarne dziury zostały udowodnione także doświadczalnie. Istnienie fal grawitacyjnych, wynikających z ogólnej teorii względności w jej wersji kwantowej, to teraz przedmiot bardzo ważnych doświadczeń. Także supersymetrie czekają pilnie w kolejce na potwierdzenie doświadczalne.

Na sam koniec chciałbym podkreślić, że nowe idee fizyki teoretycznej mają już swoje miejsce w świadomości społecznej. W dwutygodniku „New Yorker” (09.1998) jest dowcip, przedstawiający parę młodych ludzi na wystawie współczesnego malarstwa. Jedno
z nich mówi: „Wszystko to jest dla mnie teorią strun”, a z rysunku wynika, że chodzi
o synonim spraw trudnych do pojęcia. Z tego wynikają następujące dwa wnioski: po pierwsze, że teoria strun jest niezrozumiała, lecz także po drugie, że jeżeli pojawia się w nienaukowym czasopiśmie taki dowcip, oznacza to, że teoria strun już wchodzi
w zbiór pojęć raczej szerzej znanych. Tworzą one słownik współczesnej kultury, która zapożycza takie pojęcia także z katalogu odkryć fizyki teoretycznej.

 

DYSKUSJA

Andrzej Morawiecki, Uniwersytet Wrocławski, biolog — Model atomu Rutheforda[10] (w postaci systemu planetarnego, czyli jądro jako kulka i elektrony również w postaci kulek, krążące wokół niego), można było łatwo sobie wyobrazić. Okazało się, że taki model nie zgadza się z doświadczeniem, nie ma swego odzwierciedlenia w rzeczywistości. Narodziny współczesnej fizyki, a więc powstanie teorii względności i teorii kwantowej, stworzyły trudny i skomplikowany, dla większości z nas, sposób poznawania świata. Zostały przyjęte założenia sprzeczne z tym, co można sobie wyobrazić.

Dla biologa jest rzeczą zupełnie zrozumiałą, że mogą istnieć zjawiska, dla których nie można stworzyć wyobrażalnych modeli. Nasz mózg ewoluował po to, abyśmy mogli przeżyć w świecie makroskopowym. Zasób wiadomości o budowie atomu jest nam do tego niepotrzebny. Nasza logika jest wynikiem ewolucji systemu nerwowego i dobrze funkcjonuje na poziomie zjawisk makroskopowych. Czy te „zasady logiki” dają się również zastosować do rozważań na skalę mikro? Czy też należy dokonać pewnych odstępstw i założyć wykonywanie pewnych operacji logicznych jako niezgodnych z tymi przyjętymi w świecie makroskopowym?

Prof. J. Lukierski — Wielkości makroskopowe, czyli takie, które dotyczą naszych doświadczeń w życiu codziennym, są opisane przez teorię, która pasuje do naszych wyobrażeń i jest związana z klasycznym opisem zjawisk fizycznych. Z kolei odległości mikroskopowe, np. porównywalne z rozmiarami elektronu, rządzą się innymi zasadami. Obowiązują tu odmienne reguły mechaniki kwantowej, lecz z drugiej uznane reguły logiki i matematyki. W świecie makroskopowym stosuje się deterministyczny opis do liczb określających pomiar, a w mikroskopowym do prawdopodobieństw pomiaru. Można powiedzieć, że logika w obu teoriach jest podobna, lecz inaczej zastosowana.

Odległość Plancka (ok. 10-33 cm.) określa ten supermikroświat, którego nie znamy, a którego struktura mogłaby nam więcej powiedzieć np. o początku świata,
o Wielkim Wybuchu. O efektach kwantowych świadczy także w naturze bardzo mała tzw. masa spoczynkowa, np. foton jest „bardzo kwantowy”, bo nie ma masy spoczynkowej. Kula ziemska też implikuje pewien efekt kwantowy, który jest jednak absolutnie niezauważalny. Prawa fizyczne działają w różnych obszarach, a ich zastosowanie polega na umiejętności przejścia, w zależności od badanego zjawiska, z jednego zakresu stosowalności teorii do drugiego. Gdy np. prędkość cząstki zbliża się do prędkości światła, należy przejść od fizyki newtonowskiej do einsteinowskiej. W konkluzji trzeba pamiętać, że fizyk swym rozumieniem przekracza wyobrażenia innych ludzi i chociaż dla niego arena zjawisk na dużych i małych odległościach wygląda różnie, to matematyka i logika jest taka sama.

A. Morawiecki — Moje następne pytanie dotyczy obserwacji narodzin coraz to nowszych cząstek. Jeżeli model pewnej cząstki nie pasuje do danych doświadczalnych, stwierdzamy, że cząstka ta ma strukturę. Jeżeli cząstka uznana za elementarną nadal nie uzyskuje potwierdzenia w eksperymencie, twierdzimy, że składa się z jeszcze mniejszych składowych. Czy droga przewidywania teoretycznego na istnienie nowych struktur, a później ich odkrywania eksperymentalnego, nie prowadzi do nieskończoności?

Prof. Lukierski — Uważam, że jest to pytanie metafizyczne, gdyż fizyk nie będzie zastanawiał się, czy materia jest nieskończenie podzielna. Jeżeli mamy ciąg liczb
i znamy kawałek tego ciągu, to nie możemy powiedzieć, jak wygląda pozostała jego część. Podobnie jest w fizyce: buduje się pewną konstrukcję teoretyczną niepodzielnego obiektu, lecz jeśli okazuje się, że będzie potrzebna, z różnych przyczyn, jego struktura złożona, to się ją wprowadza niezależnie nawet od eksperymentu.

Prof. dr hab. Jan Klamut, fizyk-teoretyk, PAN — Uprawiałem fizykę teoretyczną przez kilkanaście lat, ale zdradziłem ją dla eksperymentu. W całym wykładzie zamiast o rzeczywistości, czyli eksperymencie, mowa była o duchach i cieniach tych duchów. Co jest zatem podstawowym kryterium wyboru tej czy innej drogi, w momencie, gdy fizyk-teoretyk operuje tylko ścisłą logiką? Matematyka jest jej rozwinięciem, a fizyka teoretyczna jest nauką zupełnie zmatematyzowaną i nie ma w niej nic poza logiką. Tu jest tylko matematyka.

Każdy kto zajmuje się fizyką, psychologią czy w ogóle materią ożywioną, musi uciekać od konkretnej odpowiedzi, bo taka tu nie istnieje, a zamiast niej nasuwają się przeróżne konkluzje. Operujemy prawdopodobieństwem, bierzemy pod uwagę wiele wymiarów.

Kiedy nie znamy odpowiedzi na pytanie, wymyślamy coś i tworzymy zupełnie coś innego. Kiedy w dwóch czy w trzech wymiarach, nie możemy znaleźć żadnej prawidłowości, periodyczności czy symetrii, którą lubimy, wystarczy dodać jeszcze jeden czy dwa wymiary, a wtenczas układ zaczyna być periodyczny, symetryczny. To jest ta sztuka, którą tu się dokonuje. Dodawanie wymiaru jest ucieczką od niemożności. Czy to można zrozumieć? Na pewno można daną prawidłowość wyliczyć, ale na poziomie mikro nie istnieje już problem,
w jaką  postać ją ubrać, np. w kulki, w pieska czy kotka.

Przeglądając prace wybitnych fizyków-teoretyków, bardzo często mam wrażenie, że dążą oni do uzyskania estetyki, która jest przecież jednym z najważniejszych kryteriów budowy teorii fizycznej. Znaczy to tyle, że teoria musi być ładna, zgrabna i prosta. Dodają oni kolejny wymiar przestrzeni lub też idą w drugą stronę i dzielą cząstki, dopóki dana prawidłowość nie zostanie zrozumiana. Jest to dążenie do prostoty.

Jestem związany z eksperymentem, w związku z czym chciałem zaznaczyć, że zdolny eksperymentator-fizyk, potrafi znaleźć potwierdzenie prawie każdej teorii. W związku z tym teoretycy i eksperymentatorzy są dla mnie podejrzani. Będąc teoretykiem, miałem duże zaufanie do eksperymentu, ale później zobaczyłem drugą stronę medalu. Fizycy są rozsądni
i inteligentni na tyle, że z każdego nowo sformułowanego prawa, wyjdą obronną ręką.

Czy zatem estetyka w twojej pracy nie była ważna? Matematyka, którą posługują się fizycy jest potrzebna, żeby móc więcej zrozumieć. Oczy są zwierciadłem duszy i kiedy nie stosowaliśmy opisów matematycznych, to po prostu filozofowaliśmy. Już bowiem dawni filozofowie (np. św. Augustyn) wiedzieli, że czas powstał wraz z materią. Matematycy twierdzą, że można to udowodnić za pomocą procesu myślowego.

Prof. Łopuszański — Piękno i estetykę zostawmy krawcom i szewcom.

Prof. Lukierski — Kiedy byłeś teoretykiem, nie byłeś takim cynikiem. Fizyk-teoretyk posługuje się matematyką, a kwestią gustu pozostaje fakt, czy struktury matematyczne są estetyczne, czy po prostu są. Jest powiedzenie, że matematyka jest mądrzejsza od człowieka, tzn. że jeżeli umiejętnie wsiądziemy na wózek matematyki, to daleko na nim zajedziemy. Nie kierujemy się w swych pracach kryterium estetycznym, tylko argumentami mającymi swą przyczynę w materii fizycznej, np. chcąc stosować einsteinowską ideę geometryzacji, nie można włączyć pól fermionowych, więc wprowadza się supersymetrię. Ocena estetyczna teorii jest zwykle oceną „a posteriori”. Dlaczego chcemy wprowadzać kwantową grawitację? Ponieważ cenimy Einsteina i cenimy teorię kwantową, chcemy je obie połączyć, a to staje się motorem dalszego rozwoju teorii fizycznych. Matematyka nie jest dla mnie „estetyczna”, jest to zbyt pompatyczne słowo, jest po prostu czymś bardzo przydatnym do wyprowadzania nowych wniosków, twierdzeń naukowych.

Jaka jest relacja między matematyką a fizyką? Matematyka ma znacznie większy zakres badań niż jest on stosowany w fizyce, więc wybieramy z niego to, co jest nam potrzebne. Twierdzenie, że każda piękna struktura matematyczna ma odnośnik w przyrodzie, a przyroda jest piękna, jest skrajnym punktem widzenia. Czysta estetyka na pewno nie wystarczy, by nastąpił postęp w fizyce teoretycznej, trzeba patrzeć na logikę teorii fizycznych i wnioski z doświadczeń.

Helena Saniewska, pisarka — Na sali jest wielu humanistów, artystów, poetów. Chciałbym zatem w ich imieniu zadać pytania, które są na granicy fizyki, metafizyki, zdrowego rozsądku i bzdury. Chciałbym się m.in. dowiedzieć, czy:

·        w praktyce została sprawdzona teoria względności, która udowodniła, że Einstein ma rację, a zdrowy rozsądek jest w błędzie. Newton zobrazował świat na codziennych doświadczeniach, dlatego w teorię einsteinowską wielu osobom trudno jest uwierzyć. Jak nieprofesjonalista może odróżnić w fizyce bzdurę od prawdy?

·        istnieją dwa kierunki czasu: przeszłość i przyszłość. Czy naprawdę można podróżować tak samo w czasie, jak i w przestrzeni?

·        Słyszałam o teorii światów równoległych (teoria wielu światów). Czy te teorie uznane są za prawdziwe?

Prof. Lukierski — Doświadczenie Alberta Michelsona[11] z USA udowodniło, że prędkość światła wyliczona po orbicie zamkniętej, jest stała (doświadczenie przeprowadzone zostało na orbicie ziemskiej). Była to prawidłowość sprzeczna z teorią klasyczną i wydawała się dość dziwna. W 1907 r. Michelson dostał jednak za to odkrycie Nagrodę Nobla. Struktury czasoprzestrzeni i kinematyka tak się modyfikują, że stała prędkość światła jest „wbudowana” w tę teorię. Dodawanie prędkości cząstek elementarnych również nie jest klasyczne, nie daje odpowiednika równości, że 1+1=2, lecz następuje tu pewna kontproponuje nową regułę dodawania. Dla przykładu gdy c jest prędkością światła, to relatywistyczne dodawanie prędkości prowadzi do równości c=c+c. Jest to składanie prędkości, które jest zgodne z tzw. relatywistyczną kinematyką i potwierdzone zostało w sposób bezsprzeczny. Zdrowy rozsądek bywa tutaj niewystarczający, gdyż w nauce „na chłopski rozum” wiele nie wyjaśnimy.

Jeżeli chodzi o wnioski z ogólnej teorii względności, dzięki którym na pozór możliwy jest powrót do przeszłości, to jednak okazuje się, że nie można tego udowodnić w sposób ścisły. Problem polega na tym, że tzw. paradoks bliźniąt jest dowodzony
w ramach specjalnej teorii względności, natomiast ścisły dowód wymaga stosowania ogólnej teorii względności.

Ostatnie pytanie to kwestia czy istnieją równoległe światy. Chcąc opisać wszechświat w sposób kwantowy, odchodzimy od koncepcji jedynego świata klasycznego.
W szczególności w teorii kwantowej grawitacji istnieje mnogość wirtualnych Wszechświatów. Nie ma jednak obecnie sposobu na potwierdzenie eksperymentalne tej konstrukcji teoretycznej. Można jednak sobie wyobrazić, że z rachunków wynikną pewne poprawki, np. do obserwacji astrofizycznych, które są zależne od istnienia wirtualnych światów równoległych, i że zostaną one potwierdzone pośrednio w doświadczeniu.

Dr hab. prof. nadzw. Ludwik Turko, fizyk — Skoncentruję się na społecznej pozycji fizyki we współczesnym świecie, a w szczególności na fizyce cząstek elementarnych. Prof. Lukierski słusznie podkreślił, że ostateczną ich weryfikacją są doświadczenia. Gdy teoria pola nie miała jeszcze swego potwierdzenia w eksperymentach, wszystkie dalsze teorie, na niej się opierające, były właściwie czystymi spekulacjami. Później jednak zostały rozbudowane dalsze doświadczenia, które ją i je potwierdzały. Jednak współczesny eksperyment w dziedzinie fizyki wysokich energii, jaką jest fizyka cząstek elementarnych, jest potwornie kosztownym przedsięwzięciem. Szacuje się, że budowa akceleratora
z prawdziwego zdarzenia, może wynieść ok. 2 mld $. Drugie tyle kosztuje wykonywanie przy jego pomocy sensownych eksperymentów. Nic dziwnego, że tylko nieliczne kraje na świecie, mogą sobie pozwolić na takie eksperymenty.

Prof. Lukierski — Kilka lat temu w Europejskim Centrum Fizyki Wysokich Energii CERN rozpoczęto budowę nowego, wielkiego akceleratora cząstek elementarnych, nazwanego w skrócie LHC (Large Hadron Collider). Pierwsze doświadczenia zostaną przeprowadzone zapewne w r. 2005. Spośród wszystkich zatwierdzonych do realizacji projektów doświadczeń, LHC jest najważniejszym z tych, które pozwolą w laboratorium ziemskim na wniknięcie w istotę struktury Modelu Standardowego. Umożliwi to również odkrycie nieznanych dotychczas aspektów świata cząstek elementarnych.

W ciągu ostatnich dziesięciu lat teoria cząstek elementarnych ma coraz ściślejszy związek z astrofizyką ze względu na to, że Ziemia nigdy nie da nam takich laboratoryjnych możliwości, jaką może zaoferować nam przestrzeń kosmiczna, intergalaktyczna. Można znaleźć tam takie energie, których nigdy nie uzyskamy na naszej planecie. To w tym największym laboratorium fizyki teoretycznej nastąpił kiedyś Wielki Wybuch, który przyczynił się do stworzenia wszechświata.

Prof. dr hab. Jerzy Czerwonko. Politechnika Wr. — Swoistym fenomenem jest wydawanie pieniędzy na dziedziny, które są czysto spekulatywne. Najpotężniejszym impulsem do prognozowania teorii cząstek elementarnych był Projekt Manhattan[12]. W latach 30. uświadomiono sobie, że doświadczenia w fizyce jądrowej, mogą służyć do skonstruowania broni atomowej, która może być użyta podczas wojny. Rozpoczęła się wówczas między państwami ogromna rywalizacja, przeznaczono na nowe odkrycia, w tej dziedzinie, olbrzymie pieniądze. Na tym się jednak nie skończyło. Aby móc bowiem przeprowadzać odpowiednio skomplikowane symulacje matematyczne i badania materiałowe, zatrudniono całą masę fizyków oraz skonstruowano komputery.

Człowiek, w życiu codziennym, ma niewielką korzyść z odkrycia kolejnej cząstki elementarnej. Największe znaczenie mają dla niego osiągnięcia w dziedzinie fizyki ciała stałego, poczynając od zegarków elektronicznych, a kończąc na komputerach, światłowodach itd.

Prof. Lukierski — Dyskusje o ważności teorii oddziaływań fundamentalnych oraz teorii ciała stałego przypomina dyskusję o względnej ważności Świąt Wielkanocnych i świąt Bożego Narodzenia. Oba kierunki badań są moim zdaniem bardzo potrzebne i złożyły się na sławę fizyki w XX wieku. Pozwól, że na koniec dodam, iż w 70. i 80. latach także konkurencja między Wschodem a Zachodem stymulowała wydawanie coraz większych pieniędzy. Obecnie z kolei większe dotacje idą w kierunku mikrobiologii niż fizyki.

Prof. dr hab. Witold Karwowski, fizyk–teoretyk —  Moim zdaniem nowa bomba wybucha właśnie teraz, a jest nią komputeryzacja, czyli infostrada, lasery
i światłowody. Wszystko to połączyło się w funkcjonalną całość i działa dzięki podstawowym odkryciom fizycznym, które nie dotyczą teorii cząstek elementarnych. Kto wie, czy „bomba komputeryzacyjna” nie okaże się bardziej destrukcyjna od bomby atomowej.

Prof. dr hab. Andrzej Elżanowski, U.Wr. — Należę do pokolenia, które wychowało się na filozofii Poppera[13]. Falsyfikacjonizm[14] jest główną siłą napędową  krytyki teorii ewolucji, bowiem twierdzi się, że występuje mniemany brak falsyfikacji tej teorii. Fizyka była zawsze modelem dla filozofii nauki. Jak wygląda falsyfikacjonizm z punktu widzenia fizyki teoretycznej?

Prof. Lukierski — Zmiany w teorii (np. przejście od teorii klasycznej do kwantowej) i zmiana paradygmatu mogą wydawać się drastyczne, lecz są zweryfikowane doświadczalnie. Ja staram się rzeczy przedstawiać tak, aby następne kroki w rozwoju fizyki były konsekwencją poprzednich. Wrażenie może być różne, ale przy pełnym zrozumieniu kontekstu i zakresu zastosowalności, pojmujemy w końcu poznawcze korelacje między teoriami. A odnośnie weryfikalności koncepcji teoretycznych w fizyce, to w zasadzie każda taka koncepcja z założenia powinna być choćby pośrednio weryfikowana. Należy także podkreślić, że fizyka nie jest nauką konserwatywną i istnieje zapotrzebowanie na promocję nowych, nawet rewolucyjnych wyników, co czasami jest niebezpieczne nawet dla fizyki doświadczalnej. W 1996 r. były np. przeprowadzone doświadczenia, które wykazały, że jakoby kwarki mają strukturę. Okazało się jednak, że były one źle zinterpretowane, a tym samym nieprawdziwe. Istnieje duża potrzeba uzyskania wybitnego wyniku, która prowadzi do publikacji rezultatów w fizyce doświadczalnej nie do końca sprawdzonych, a w fizyce teoretycznej do zupełnie niesprawdzalnych.

Dr Kornel Morawiecki, fizyk–teoretyk — Rozumiem Poppera w zupełnie inny sposób. On wcale nie mówi, że nie można czegoś potwierdzić, tylko że nie można czegoś ostatecznie udowodnić, bo tylko można to zrobić w określonym czasie. To jest ta duża różnica. Nie ma eksperymentów, które potwierdzają w całości nasze teorie. Są natomiast takie, które pokazują, że rozumienie danego zjawiska w danych warunkach, jest właściwe. Jeżeli chcemy posunąć się dalej, i udowodnić, że we wszystkich warunkach można dane zjawisko potwierdzić, wówczas pojawia się Popper. Sądzę, że biolodzy podobnie go odbierają. Nie mogą istnieć potwierdzenia zjawisk we wszystkich warunkach.

Teorie Newtona są niefalsyfikowane. Obowiązują one bowiem w określonym zakresie i warunkach, np. kiedy pada deszcz, to dane prawo działa, ale gdy świeci słońce, już nie obowiązuje.

Prof. Lukierski — Podzielam w pełni ten punkt widzenia. Nie ma w fizyce wyniku ostatecznego, który byłby wynikiem absolutnym. O platonizm w podejściu do konstruktów fizyki teoretycznej jestem w tej dyskusji posądzany dlatego, że nie podkreślam, iż dane zjawisko występuje tylko w pewnym zakresie stosowalności, np. jeśli nawet mówię o Teorii Wszystkiego, to powinienem podkreślić, że obowiązuje ona na danym etapie naszej wiedzy. Na pewno bowiem się okaże, że w przyszłości będzie można coś do niej dodać, zmodyfikować. Nie należy mówić o modelach świata w fizyce w sensie platońskim, tylko zaznaczać, że chociaż aktualnie jest on słuszny, niefalsyfikowany, może rozwijać się dalej. To jest tak jak byśmy byli na zboczu góry, na którą możemy wspinać się coraz wyżej, lecz szczyty są we mgle.

Prof. dr hab. Andrzej Kisielewicz, logik i matematyk — Einstein stwierdził
w pewnym programie telewizyjnym, że nie skończył wszystkiego, co zaczął, ponieważ nie ma „dobrej matematyki” i trzeba czekać aż się ona rozwinie. Może nie chodziło mu o jej zupełny brak, ale czy jest takie poczucie w fizyce, że do pewnych rzeczy brakuje jeszcze odpowiedniej matematyki? Ja osobiście nie mam co do tego specjalnego przekonania, ponieważ w matematyce mnóstwo rzeczy się rozwija, np. analiza harmoniczna. Aby bowiem zrozumieć, co się dzieje w niej w tej chwili, trzeba co najmniej pięć lat studiować matematykę. Weszła ona, w niektórych dziedzinach rozwoju, na taki poziom, że samo jej poznanie zajmuje wiele lat, a wtedy nie ma czasu na zajęcie się fizyką. Czy czasem nie jest to przekroczenie jakiegoś progu stosowalności?

Wypowiadano kiedyś opinię, że „ziemia jest kulą.”. To też było teoretyczne twierdzenie, bowiem nikt tego nie mógł sprawdzić, a jednak ktoś tą prawidłowość wymyślił. Znaczenie tego zdania było takie, że jak oddalimy się dostatecznie daleko od Ziemi, to się zobaczy kulę, co zostało potwierdzone w praktyce dopiero w XX wieku.
Z kolei atom jest jeszcze obserwowalny bezpośrednio pod mikroskopem, ale po elektronach można zaobserwować tylko ślady. To jest cały dowód na ich istnienie. Co zatem ma znaczyć takie zdanie, że materia składa się z kwarków? Czy to jest stwierdzenie metafizyczne? Czy tylko przypuszcza się, że istnieją one jako cząstki, które przy odpowiednim powiększeniu mogłyby być zauważone? Co oznacza słowo „supersymetria”? Nie wiem w jakim sensie symetria tu występuje i jakie jest znaczenie przedrostka super.

Prof. Lukierski — Zacznę może od pojęcia supersymetrii, która jest na razie konstrukcją matematyczną. Powiedziałem, że wprowadzamy przestrzeń
i superprzestrzeń. W przestrzeni mamy znane nam standardowe współrzędne, opisujące przestrzeń trójwymiarową. Przykładem symetrii są obroty trójwymiarowe.
W superprzestrzeni są dwa rodzaje współrzędnych: współrzędne Grassmanowskie
i standardowe. Jeżeli jest jakieś ogólne przekształcenie liniowe, które miesza ze sobą te wszystkim znane współrzędne z grassmanowskimi, to mamy ogólną grupę liniową na superprzestrzeni. Ona tworzy podstawową supergrupę. Jeżeli istnieje superprzestrzeń, to istnienie fermionów fizycznych skłania nas do wprowadzania dodatkowych przekształceń gdy chcemy przekształcać przez transfirmacje symetrii bozony w fermiony i w ten sposób rozszerza się pojęcie symetrii. To jest konstrukcja teoretyczna, która czeka na doświadczalne potwierdzenie.

Porównywanie opinii na temat istnienia kwarków i dawniejszych domysłów
o kształcie Ziemi można skomentować następująco. Ziemia jest, jak to się mówi, makroskopowa, więc możemy od niej daleko odlecieć i stwierdzić jej kulistość bezpośrednio wzrokiem. Jeżeli mówię, że materia składa się z kwarków, oznacza to, że przy pomocy mikroskopów wysokoenergetycznych, czyli akceleratorów, możemy po prostu zobaczyć jej kwarkową strukturę. Fizyk nawet nie dodaje tego, że na danym etapie rozumienia struktury mikroświata, materia składa się z kwarków. One nie są abstraktem i matematycznie można pokazać, że ich istnienie wyjaśnia pewne obserwacje fizyczne i pośrednio udowodnić, że takie obiekty istnieją.

Należy dodać, że kwarki mają jedną właściwość trudną do zrozumienia,
a mianowicie siła przyciągania między nimi jest tym większa, im większa jest ich odległość od siebie. Nigdy nie możemy układu dwóch kwarków rozerwać, jakby łączyła je jakaś sprężyna (tzw. uwięzione kwarki). Nie mogą zatem kwarki istnieć oddzielnie, jako cząstki swobodne, jak np. protony.

Jerzy […] — Sądzę, że nawet fizyka einsteinowska, w momencie powstawania, była traktowana jako nauka teoretyczna. Tymczasem w ciągu następnych lat, przerodziła się ona, w sposób nagły i nieoczekiwany, w dziedzinę wiedzy, której wyniki badań wykorzystuje się również w praktyce, np. w postaci projektu Manhattan i bomb atomowych. Jest to namacalny dowód na to, co mogą i potrafią stworzyć fizycy. Czy dalsze etapy rozwoju fizyki teoretycznej mogą nam zaowocować w równie ciekawy sposób, jak to się stało w 1945 r.? Czy baczne obserwowanie makro i mikrokosmosu nie sprawi, że obudzimy się na początku XXI wieku z dylematem o większej skali od problemu bomby atomowej z 1945 r.? Czy obecna wiedza o mikroświecie nie jest już groźna dla świata makro?

Prof. Lukierski – Wybuch jądrowy jest związany z  reakcjami, w których masa spoczynkowa zamienia się na energię. Czy np. z modelu kwarkowego wynika reakcja,
w której też następuje duży defekt masy i duże ilości energii są wyzwalane? Otóż wydaje się, że nie ma możliwości konstrukcji bomby kwarkowej w warunkach ziemskich. W kosmosie są natomiast obserwowane efekty o wyjątkowo dużej energii i wiemy, że tak plazma gluonowo–kwarkowa, jak i wybuchy typu „bomba kwarkowa”, są realizowane w przyrodzie. Przykładem mogą być olbrzymie rozbłyski, które się nazywają gamma rozbłyskami
i nadchodzą z bardzo dużych odległości i z ogromną intensywnością. Eksplozje promieniowania gamma we wszechświecie zdarzają się dość często. Są to jednak zjawiska jeszcze nie wyjaśnione w pełni przez fizykę teoretyczną i astrofizykę.

Prof. dr hab. Adam Jezierski, chemik — Pierwszy podręcznik chemii powstał ok. 300 lat temu napisał chemik Robert Boyle (1626–1691) i dał jej tytuł Chemikus Scepticum, czyli Sceptyczny chemik. Przeciwstawił w niej skostniałego fizyka, światłemu chemikowi. Czytając książki fizyków-teoretyków, stwierdzam, że teraz jest zupełnie odwrotnie. Przerażony jestem tym, że wybitni chemicy, popełniają w swoich książkach kardynalne błędy chemiczne, choć sądzę jednak, że gdybym znał i rozumiał fizykę teoretyczną, też bym się na nie natknął.

Czy na poziomie niższym od poziomu kwantowego rozważamy sprawy determinizmu, strzałki czasu? Mam tu na myśli pewną nieodwracalność i nierównowagowość procesów w skali subkwantowej.

Prof. Lukierski — Najpierw skomentuję swą uwagę na temat relacji chemia– fizyka. Ponieważ nie ma rektora Ziółkowskiego, wybitnego chemika i mojego kolegi, pozwolę sobie powiedzieć, że dla fizyka chemia jest stosowaną mechaniką kwantową. Wydaje mi się, że tu jest ta relacja dość klarowna: chemia jako nauka teoretyczna wyrosła
z fizyki.

A teraz na temat pojęcia czasu w skali subkwantowej. Tam się dzieją gorsze rzeczy. Czas przestaje być liczbą dla obszarów subkwantowych, co oznacza, że jeśli chcemy opisać efekty kwantowej grawitacji, musimy traktować czas jako wielkość kwantową. Wtedy mamy już do czynienia z opisem kwantowym czasu i pojęcia klasyczne, jak np. determinizm, należy stosować inaczej. Istnieją tak zwane grupy kwantowe, które opisują symetrie mikroświata kwantowego. Na subkwantowych poziomach obowiązuje inny paradygmat. To jest nieznana domena, którą poznamy może bliżej w XXI wieku. Mamy obszar klasyczny, kwantowy i subkwantowy. Nad tym ostatnim, subkwantowym zakresem zjawisk pracują niektórzy z nas we Wrocławiu i nie ma tu jasnych odpowiedzi.

Prof. dr hab. Janusz Drodżyński — Jako chemik otarłem się trochę o problem fizyki kwantowej. Chciałbym wszystkim tym, którzy nie mają wiele wspólnego z fizyką, przybliżyć jej wygląd. Nie śmiałbym nikogo tu krytykować, dlatego pozwolę sobie tu zacytować jednego z fizyków. Jego wypowiedź pozostawię bez komentarza. W pewnej książce pisze: „Żyję w Nowym Jorku i za każdym razem kiedy jadę metrem, przypominają mi się te dziwne przekształcenia przestrzeni i czasu. Gdy stoję na peronie i nie mam nic do roboty, oprócz czekania na pociąg, puszczam wodze fantazji i zastanawiam się, co by się stało, gdyby prędkość światła wynosiła zaledwie 50 km/h (czyli tyle, ile prędkość pociągu
w metrze). Na stację wjeżdżałby wówczas pociąg ściśnięty jak akordeon. Byłaby to jadąca bryła metalu o szerokości 1/2 metra. Wszyscy pasażerowie byliby ciency jak papier, praktycznie zamrożeni w czasie i wyglądaliby jak nieruchome figury. Zatrzymujące się na stacji metro, rozszerzyłoby się gwałtownie i bryła metalu stopniowo wypełniłaby stację. Jakkolwiek absurdalne może nam się wydawać to doświadczenie, pasażerowie pociągu pozostawaliby w zupełnej nieświadomości. Ich ciała, podobnie jak cała przestrzeń, skróciłyby się w kierunku ruchu pociągu i wszystko wyglądałoby normalnie. Wszyscy zachowywaliby się tak jak zwykle. Gdyby pociąg w końcu się zatrzymał, zupełnie nie zdawaliby sobie sprawy z tego, że z punktu widzenia kogoś na peronie, ich środek lokomocji rozszerzył się i wypełnił całą stację. Pasażerowie wychodzący z pociągu byliby całkowicie nieświadomi zmian opisywanych przez szczególną teorię względności”.

Inny fizyk twierdzi, że mamy tu do czynienia z rzeczywistym spowolnieniem wszystkich zjawisk, które widzi też zewnętrzny obserwator. Jeszcze inny snuje przypuszczenia, że to co mierzymy, jest dla fizyka prawdą, ale nie wszystko może tak wyglądać. Na koniec mojej wypowiedzi mam jedno pytanie. Według najnowszych badań fizyków-teoretyków mówi się o kreacji materii z niczego. Jak to jest możliwe?

Prof. Lukierski — Przykład z książki jest interesującą, czystą fantazją. Fizyk wyobrażał sobie tylko, co by się stało, gdybyśmy skorzystali z efektów, które stosuje się przy prędkościach ok. 300 km/s, przy prędkości 50 km/h.

Natomiast jeśli chodzi o kreację materii z niczego, to przychodzą mi na myśl tzw. procesy wirtualne w kwantowej teorii pola. Nie ma w nich jednak sytuacji, że coś jest wykreowane, a nie jest anihilowane. Można jednak zauważyć, że próżnia, która została wprowadzona bez stanów wirtualnych, nie jest fizyczna. Pokazano, że w fizycznej próżni zachodzą kwantowe procesy wirtualne, a więc coś się dzieje, zachodzą pewne zjawiska, które „ubierają próżnię”. Mówi się o próżni matematycznej i próżni ubranej, fizycznej. Natomiast w opisie realnych, niewirtualnych procesów nie zakłada się, że materia jest kreowana, byłoby to sprzeczne z uniwersalną zasadą zachowania energii i pędu. Inny problem to powstawanie świata w procesie Wielkiego Wybuchu, który powstał z tzw. osobliwości pierwotnej zgodnie z zasadami kwantowej grawitacji.

Prof. dr hab. Stefan Mróz, fizyk doświadczalny — Prof. Lukierski swobodnie rozwija skomplikowane wizje, twierdząc, że są na nie dowody. Najpierw trzeba jednak w to wszystko uwierzyć. To mnie wpędza w kompleksy, ale trochę się pocieszam tym, że nawet
I zasada Newtona nie jest wcale taka prosta, jak mogłoby się to wydawać. Gdy wykładam studentom pierwszego r. mechanikę, dla porządku tłumaczę im, że ciało na które nie działa żadna siła, porusza się ruchem jednostajnym. Nie jest to jednak takie oczywiste, bo gdy np. włączy się silnik, to on się zatrzyma, a mimo wszystko jest to twierdzenie fizyczne. Pocieszam się, że więcej rozumiem i to mi poprawia samopoczucie.

Z dzisiejszych rozważań teoretycznych i eksperymentów wynika, że dawniej eksperymentatorzy znajdowali zjawiska, które później teoretycy tłumaczyli. Gdy dobrze je wyjaśnili, powstawała zawsze dobra teoria. Od niedawna sytuacja jest odwrotna — teoretycy wymyślają nowe tezy, za którymi eksperymentatorzy nie mogą nadążyć. Do tego dochodzą skomplikowane eksperymenty, aby je potwierdzić, a wyniki z nich otrzymane, będą zapewne bardzo pośrednie i niepewne.

Czy trzeba sprawdzać wszystkie teorie, czy też może istnieje jakieś kryterium wyboru? Ile jest tych dobrych i złych dróg? Czy dużo rodzi się pomysłów, które później zupełnie nie potwierdzają się w doświadczeniach?

Prof. Lukierski — Fizyka teoretyczna jest o wiele tańsza od fizyki doświadczalnej, a w związku z tym jest często szybsza. W badaniach teoretycznych, które mają wyjaśnić dane doświadczalne, stosujemy zasadę zbiorowej mądrości fizyków-teoretyków. Ważne są tu kontakty i prace, które posuwają owe modele w dobrym kierunku. Widać wyraźnie, że istnieje tu pewien mechanizm samoregulujący, który odrzuca mniej pożyteczne koncepcje, a faworyzuje te przydatne dla rozwoju fizyki. Reprezentuję tutaj optymistyczny punkt widzenia. Należy jednak dodać, że propozycje teoretyczne bywają bardziej lub mniej rzetelne.

Prof. dr hab. Stefan Mróz — Problem polega chyba na tym, że świat, który jest obszarem sprawdzania fizyki współczesnej, trzeba najpierw zbudować. Fizycy dla potwierdzenia wielu dzisiejszych teorii muszą dostać 10 mld $ na wybudowanie akceleatora. Czy wy w tej chwili nie wymyślacie światów, których nie ma, a potem jeszcze namawiacie polityków, żeby dali pieniądze na badania?

Prof. Lukierski — Logika rozwoju koncepcji teoretycznych w fizyce istnieje niezależnie od ilości pieniędzy, chociaż pieniądze mają zadanie tonizujące na rozwój fizyki.

Dr Rafał Augustyn, filolog, U Wr. — Mam wrażenie, że wszystko rozumiem, choć nie powinienem, bo przecież nie znam się na tym. Należę do ostatniego rocznika, który
w liceum nie miał nawet rachunku różniczkowego, za to była cała masa trygonometrii. Mam wrażenie, że jesteśmy na poziomie pewnego uogólnienia, który jest dostępny dla przeciętnych ludzi. Wobec tego ośmielam się zadać pytanie historyczne. Z jednej strony słyszymy
o próbach weryfikacji różnych elementów szczególnej Teorii Względności i o tworzeniu Teorii Wszystkiego. Z drugiej jesteśmy w sytuacji, gdy Einstein jest już niemożliwy, ponieważ za każdym razem rozszerzy się teorie na tyle, żeby „uratować” jego tezę i w gruncie rzeczy ta różnica między przekształcaniem, a wymianą paradygmatu się zaciera. Czy to jest fałszywe myślenie? Zajmujemy się dziś fizyką po Einsteinie, ale czy po nim, można znaleźć kogoś, kto byłby kolejnym Einsteinem? Czy któryś dodatek do teorii Einsteina, jakieś przekształcenie tej teorii, jest zmianą paradygmatu na dużą skalę?

Prof. Lukierski — Niektórzy uważają za największe odkrycie XX wieku nie teorię Einsteina, lecz Teorię Kwantową, dzięki której uczyniono większy skok, niżeli przechodząc od teorii Newtona do teorii Einsteina. Istnieją cztery teorie dynamiczne: dwie klasyczne
i dwie kwantowe. Popularnie uważa się, że to Einstein jest dominującą postacią XX wieku. Uważam, że teoria kwantowa jest najistotniejszym osiągnięciem naukowym dokonanym dziesięć lat po teorii względności Einsteina. Czy są jakieś inne podobne osiągnięcia? Otóż mamy teorię klasyczną, potem kwantową, a następnym przejściem jest skok do teorii subkwantowych. Model superstrun próbuje opisać świat subkwantowy, ale to nie jest jeszcze rozwiązanie tego problemu. Być może już żyje wśród nas następca Einsteina czy Heisenberga, który zunifikuje w jedną całość teorię relatywistyczną i teorię kwantową,
i podobnie jak Einstein stanie się bohaterem kultury masowej.

Pan X — Wśród największych autorytetów — współczesnych metodologów
i filozofów nauki — dominuje bezdyskusyjnie przekonanie, że nie ma gołych faktów, którymi teraz zajmują się fizycy. Twierdzą oni, że mamy tu do czynienia ze złudzeniem badaczy, którzy uważają, że wystarczy, aby byli subiektywnie przekonani o istnieniu jakiegoś obiektywnego świata, a wtedy wystarczy go zbadać, aby uzyskać tzw. fakty potwierdzone eksperymentalnie. Według nich fizycy nie robią zatem nic innego, jak tylko odkrywają nowe światy, aby później szukać na nie potwierdzenia. Twierdzą, że te gołe fakty są najpierw przez fizyków wymyślane, a później odnajdywane w rzeczywistości i w dodatku przedstawiane tym samym językiem, którym zostały opisane jeszcze przed ich powstaniem.

Zapewne dla fizyków, którzy mocno wierzą, że badają obiektywny świat, stanowi to hipotezę mocno podejrzaną, ale czy ona jest taka doprawdy? Metodologowie twierdzą, że wśród fizyków i innych badaczy doświadczalnych dominuje pozytywistyczna samoświadomość metodologiczna, tzn. doświadczalnicy nie wykroczyli jeszcze poza pozytywistyczne nazywanie tego, co robią, choć my w teorii jesteśmy już, ku ich niezrozumieniu, dużo dalej.

Prof. Lukierski — Rzeczywiście, pozytywistyczny punkt widzenia polega na tym, że otacza nas istniejąca materia, którą się bada. Bardziej subtelny punkt widzenia uwzględnia to, że nasze kategorie językowe (teoretyczne), wprowadzają całą hierarchię modeli, ale nie zmieniają one statusu materii obserwowanej jako tej ostatniej instacji prawdziwości teorii. Sam proces poznawczy jest oczywiście uzależniony od kategorii językowych czy pojęciowych i czasami jest wskazane, by się wyzwolić od doświadczenia przy konstrukcji teorii, jako czynnika ograniczającego naszą intuicję.

Magorzata Masterniak–Kubiak — W każdej profesji człowiek powinien kierować się określonymi normami etycznymi. Czy fizyk-teoretyk też ma jakiś kodeks etyczny?
W przypadku eksperymentu klonowania, w pewnym momencie zaczęto się zastanawiać, do jakiego stopnia doświadczenie się udało i jak daleko można się posunąć, aby nie sprzeniewierzyć się ogólnoludzkim wartościom. Jakie są granice eksperymentu? Czy zostały wytyczone normy w fizyce, a może fizyk ma do czynienia z innymi normami?

Prof. Lukierski — Przez wyrażenie „normy etyczne” rozumiem etyczną ocenę konsekwencji badań. Wydaje mi się, że dopiero w konkretnych okolicznościach można odpowiedzieć na pytanie, czy jakieś aspekty konkretnego odkrycia są negatywne. Jako naukowiec nie znalazłem się podczas badań w takiej sytuacji, z której musiałbym się zmierzyć z tego typu problemem. Z drugiej strony, problem wykorzystania odkrycia nie zawsze jest problemem odkrywcy. Wiedza jest moim zdaniem jednoznacznie pozytywną wartością w rozwoju ludzkości i zatajanie jej jest krótkowzroczne. Z drugiej strony prawdą jest, że inni ludzie, z poza nauki, mogą później wyniki naukowe w ten czy inny sposób spożytkować.

Naukowcy nie powinni być dodatkowo obarczani ciężarem zastanawiania się nad konsekwencją swych działań. Ich rolą jest skoncentrowanie się na poznawaniu rzeczywistości, przyrody. Możemy komentować wyniki badań, ale nie możemy przez swe decyzje ich powstrzymywać, gdyż po dłuższym czasie okaże się, iż ich zaniechanie było krokiem nieefektywnym. Dzisiaj jednak pod większą presją ocen, o których Pani mówi, jest biologia i genetyka niż fizyka.

Dr hab. prof. nadzw. Jerzy Czyżewski, fizyk doświadczalny — Ciągle wierzę, że fizyka jest nauką przyrodniczą, a w jej procesie poznawczym niezbędne są metody eksperymentalne. Fizyka teoretyczna ciągle brnie do przodu, choć wielu eksperymentów nie da się już wykonać. Aby bowiem zaobserwować pewne zjawiska, należałoby użyć do tego akceleratora o rozmiarze układu planetarnego. To jest zdecydowanie niemożliwe.

Jestem przekonany, że badanie struktury materii jest najbardziej fundamentalnym
i fascynującym problemem dla fizyka. W tej chwili panuje kryzys, bo nie zbudujemy akceleratora, który jest potrzebny do przeprowadzenia eksperymentalnych badań, potwierdzających słuszność dzisiejszych założeń teoretycznych. Z drugiej strony jest też inne podejście do wysokiej energii, a mianowicie koncentracja gęstości energii w generatorach termojądrowych. Eksperyment polega na tym, że lasery wielkiej mocy są koncentrowane
w jednym punkcie, w którym wytwarza się ogromna gęstość energii. Czy istnieje zatem nowa koncepcja przyrządów?

Prof. Lukierski — Zgadzam się, że eksperymenty dotyczące dzisiejszych badań
w akceleratorach mają swoje granice. Stąd coraz większe zainteresowanie astrofizyką, która posługuje się „laboratorium kosmicznym”. Kierunek badań o którym Pan mówi — do którego należą badania plazmy gluonowo–kwarkowej — ma przed sobą przyszłość. Wymaga on na pewno nowych przyrządów i metod doświadczalnych.

Wiesław Saniewski, reżyser, scenarzysta, producent filmowy — Chciałbym zadać pytanie z pogranicza fizyki i filozofii. Paul Davies napisał książkę Bóg i nowa fizyka (1996), w której stwierdził, że wielu fizyków i astrofizyków nawraca się i zaczyna mocniej niż kiedykolwiek wierzyć w Stworzyciela. Dotyczy to zwłaszcza starszych naukowców, którzy przez wiele lat zajmowali się fizyką teoretyczną. Fizycy zadają sobie ciągle pytanie, skąd się wziął wszechświat i skąd się wzięli oni sami, ale czy nie jest to pytanie również o Boga? Czy cząstka zwana neutrinem[15], przenikająca do każdej materii nie jest dowodem naukowym na istnienie ducha?

Prof. Lukierski — Nauka implikuje w różny sposób poglądy filozoficzne,
a w szczególności podejście do religii. W statystykach dotyczących wiary w Boga, my, fizycy, zajmujemy środkową pozycję. W czołówce wierzących naukowców plasują się matematycy, którzy „pracują w abstrakcjach”, a fizycy są na dalszym miejscu. Wśród biologów natomiast jest mniej osób prowadzących badania naukowe i wierzących w Boską ingerencję w ten świat. Może dlatego, że są oni bliżsi tajemnicy życia od innych.

Neutrino to rzeczywiście cząsteczka bardziej przenikalna od innych, lecz pojęcie ducha można dopasować do niej kolokwialnie. Chociaż używamy w fizyce cząstek elementarnych pojęcia „stanów duchowych” (tzw. „ghost states”), to jednak nie mają one nic wspólnego z metafizyką. Przenikanie neutrina przez inne ciała możliwe jest poprzez specyfikę ich oddziaływań i masę spoczynkową bardzo bliską zeru. Zapewniam, wszystko jest w zgodzie z niemetafizyczną fizyką.

Wiesław Saniewski — Jeżeli symetria i estetyka w fizyce są tak ważne, to czy wobec tego początku wszechświata nie można się doszukiwać także w jego końcu. Czy początkiem wszechświata nie był koniec innego wszechświata? Czy wszechświat się rozszerza po to, aby w końcu przeistoczyć się w czarną dziurę?

Prof. Lukierski — Jeżeli chodzi o wszechświat, to na razie wiemy, że jesteśmy
w fazie jego rozszerzania się. Stała Hubble’a[16], która jest wymierzona dość dokładnie, udowadnia tą tezę. Aby określić, czy wszechświat przejdzie przez jakieś kulminacje, musimy znać średnią gęstość jego masy. Z kolei materia, którą obserwujemy przez teleskopy, jest tylko częścią materii, która istnieje we wszechświecie. Jest jeszcze bowiem tzw. ciemna materia, ciemna energia, które są bardzo interesującym zjawiskiem i możliwe, że supersymetrie je właśnie reprezentują. Szacuje się, że do 90% z tego, co obserwujemy jest tą ciemną materią czy ciemną energią, zatem nie możemy łatwo dokonać obliczenia średniej masy wszechświata. Krótkimi słowy, na jasnowidzenie dotyczące przyszłego życiorysu wszechświata jest za wcześnie.

Prof. dr hab. Tadeusz Zipser — Mam w domu cztery koty, wszystkie potrafią otwierać drzwi. Część nauczyła się tego, obserwując ludzi, inne podpatrując siebie nawzajem. Jednak żaden z tych kotów nie potrafi zamknąć drzwi, chociaż były sytuacje, w których by im się ta umiejętność też przydała. Czy nie jest czasem tak, że my, podobnie do kotów, również potrafimy dokładnie obserwować, ale nie potrafimy pewnych rzeczy zrozumieć. Kot nie rozumie tego, że nie rozumie czegoś, my z kolei nie możemy zrozumieć, dlaczego nie możemy pewnych rzeczy zrozumieć. Może ten etap, do którego doszliśmy teraz w fizyce, po wszystkich teoriach klasycznych i kwantowych, jest na granicy naszego pojmowania.

Prof. Lukierski — Uważam, że obserwujemy ciągły postęp w rozwoju
i rozumieniu fizyki, więc dlaczego ten proces miałby się zatrzymać?. Otóż pod koniec XIX wieku odkryto elektron i widziano atomy. Następnie w pierwszym dwudziestoleciu zauważono, że atom się składa z jądra i elektronów oraz wykryto pierwszą składową jądra, która się nazywa proton. Następnie wykryto neutron i inne cząstki, które nazywają się mezonami. Atomowi lub cząsteczce kształt nadają ich najbardziej zewnętrzne elektrony czy, bardziej precyzyjnie mówiąc, chmura elektronowa, której gęstość określa prawdopodobieństwo tego, że elektron znajduje się w danym miejscu. Kształt tej chmury może być bardzo skomplikowany, a jego poznanie ma olbrzymie znaczenie dla zrozumienia własności chemicznych i fizycznych różnych substancji. Ostatnio fizykom udało się po raz pierwszy zobaczyć atom na własne oczy. Nie kręcimy się zatem w kółko, tylko w szybkim tempie posuwamy do przodu. Jako naukowiec–przyrodnik nie mam i nie powinienem mieć jednoznacznej odpowiedzi na pytanie, czy natura może być do końca poznawalna. Sądzę, że jest to, kwestia założenia metafizycznego. Jestem jednak zdania, że poznanie idzie i będzie szło cały czas do przodu.

Pan Y, fizyk–teoretyk — Bardzo mnie martwi ten brak kontaktu teorii
z eksperymentem, bo przesuwa się ona do tego obszaru, gdzie coraz mniejsze są szanse weryfikacji jej hipotez fizycznych. Wyobraźmy sobie, że jakieś teorie by się „rozeszły” i powstałyby dwie lub trzy równoważne sobie teorie, bez potwierdzenia eksperymentalnego. Tłumaczyłyby nam rzeczywistość, ale tą bardziej matematyczną (na papierze) niż fizyczną. Nie miałyby potwierdzenia, w związku z czym wszystkie są równie dobre i równie złe.

Prof. Lukierski — Nie zgadzam ze stwierdzeniem, że mogłyby istnieć równoważne sobie teorie przez bardzo długi okres czasu, gdyż po pewnym okresie następuje naturalny proces selekcji. Rozwój nauki przebiega bowiem na zasadzie „pnia”, na którym gałęzie odchodzą na bok, a pień idzie do góry.

Pan Y — Warto tu przypomnieć sobie teorię eteru. Gdyby nie eksperyment, który zweryfikował, że to jest błędny kierunek, do dziś byśmy się może tym eterem zajmowali. To przecież również eksperyment spowodował wybuch nowej fizyki kwantowej. Przestało się wszystko zmieniać w sposób ciągły, a zaczęło się zmieniać w sposób kwantowy. Czy my zatem na pewno nie jesteśmy w takiej sytuacji, w której nie mamy już możliwości weryfikacji? Czy był tylko jeden kot (Einstein), czy też może kolejny kot pokaże nam jak zamknąć drzwi od fizyki klasycznej i kwantowej i otworzy te nowe.

Prof. Lukierski — Kierunek główny rozwoju koncepcji w fizyce jest zweryfikowany teoretyczną intuicją najlepszych fizyków na świecie. Budowany jest na zasadzie wyboru koncepcji, która wyjaśnia najwięcej. Oczywiście, nieraz po zrobieniu kroków do przodu, robi się fałszywy krok w bok lub do tyłu. Weryfikacja może jest coraz trudniejsza, lecz wciąż potrzebna i możliwa.

Dr Kornel Morawiecki, fizyk–teoretyk — Świat po Einsteinie strasznie się rozrósł, wydaje się nawet, że ponad naszą miarę i nasze wyobrażenie. Świat przed Einsteinem,
a zatem Newtonowski, był do ogarnięcia. Bóg był poza nami, wielki, zrozumiały i przyjazny jako nasz Ojciec i Stworzyciel, a Świat był ludzki. Wszystko z czym mamy obecnie do czynienia jest dla nas zupełnie niepojęte. Świat stał się nadludzki. Zapewne to, co wiemy, jest tylko małym fragmentem, bo ogrom tego, co pozostaje nam do zbadania jest nie do pojęcia. Kiedy 30 lat temu rozmawialiśmy w czasie spaceru na wybrzeżu, powiedziałem do Ciebie: „Słuchaj, jesteś zdolniejszy ode mnie, zrób coś wielkiego w tej fizyce”. Ty zaś z góry na mnie patrząc odpowiedziałeś „Kornel, to nie jest łatwe”

Prof. Lukierski — Pewnie udało mi się w fizyce coś dokonać, jednak na pewno nie są to odkrycia, które wpisze się w historie fizyki XX wieku. Teraz już jestem
z tym stanem rzeczy pogodzony. Natomiast relacja między fizyką a religią zależy moim zdaniem od naszego subiektywnego świata. Dla Ciebie pewnie domena religii jest istotniejsza od nauki. Rozumiem to, gdyż religia jest dla wielu ludzi czymś ważniejszym, bliższym
i stabilniejszym aniżeli nauka.

Pan Zagórski, dziennikarz — W wielu ważnych ośrodkach (np. wojskowych) są badane, dziś już bez tajemnicy, obszary zjawisk myśli ludzkiej i ludzkiego umysłu. Kilka lat temu w programie telewizjnym na Discovery mogliśmy usłyszeć wystąpienie Billa Clintona, który publicznie przepraszał bataliony amerykańskie za to, że w latach 60. stosowano na nich specjalne programy psychotroniczne. Ściśle wiązały się one z fizyką, a dokładniej ze stymulacją umysłu. Czy jest jakaś korespondencja, jakiś przepływ informacji między światem nauki akademickiej, a tymi ośrodkami? Niepokoi mnie niechęć do tego typu badań. Czy można podejść do tych spraw poważniej?

Prof. Lukierski — Nie mamy przepływu informacji z tego typu instytucji, bo nas do takich eksperymentów nie dopuszczają. Twierdzenie, że istnieją super tajne komórki badawcze w USA czy w Rosji jest trudne do sprawdzenia, chociażby z powodu supertajności. Nie wierzę jednak, że została tam odkryta zupełnie nowa fizyka. Supertajność dotyczy raczej osiągnięć technologicznych. Jeśli chodzi o zjawiska parafizyczne, np. telekinezę, to każdy fizyk–teoretyk, który miałby wiarygodne ich potwierdzenie, od razu by się tą sprawą zajął. Naukowcy nie uciekają od tych zjawisk, a wręcz przeciwnie, wykonuje się pewne doświadczenia, tyle, że nie przynoszą one wyników, które bezdyskusyjnie mogłyby te zjawiska potwierdzić.

Wydaje mi się, że jest możliwa zawsze jakaś nowa jakość fizyczna przy badaniu świadomości. Były takie pomysły jak np. piąta siła, opisana modelem łamiącym tzw. chiralne symetrie, w jakimś sensie przydatna do opisu procesów świadomości. Jest duża, mimo pozorów, otwartość na takie możliwości w środowisku fizyków.

Pan Z — Co dzisiejsza fizyka może powiedzieć o grawitonach, czy udowodniono ich istnienie, czy na razie są to tylko hipotezy? Dlaczego problem grawitacji, według mojej oceny, nie jest badany fizycznie, a w niektórych krajach jest nawet tematem tabu?

Prof. Lukierski — Istnienie fal grawitacyjnych (grawitonów) jest już udowodnione, a w sprawach związanych z grawitacją kwantową są prowadzone poważne badania i formułowane interesujące hipotezy. Nie słyszałem o „tabu”, o którym wspominasz.

Bogusław Litwiniec, reżyser, senator RP — Pozwolę sobie powiedzieć coś o inspiracji i geniuszu fizyki. Otóż byłem kiedyś wybranym jako jeden z dwudziestu kandydatów, który miał się wykazać geniuszem. Włączono mnie do stajni prof. Leopolda Infelda, który w szczycie stalinizmu, zdecydował się przejechać przez żelazną kurtynę, aby stworzyć w Polsce Szkołę Geniuszy. Infeld, który był uczniem Einsteina, kiedyś na wykładzie usłyszał pytanie: „Co zainspirowało Einsteina do wymyślenia ogólnej teorii względności, która zakwestionowała klasyczną teorię?” Zastanowił się chwilę i powiedział: „Chyba Dostojewski”.

Po dzisiejszym spotkaniu możemy śmiało stwierdzić, że stworzenie teorii względności przez Einsteina było bez wątpienia jednym z największych przełomów intelektualnych w dziejach ludzkości. Nie wynika to oczywiście z faktu, iż Einstein jako pierwszy zwrócił uwagę, że wszystko jest względne. Mówiąc słowami Richarda Feynmana: aby odkryć tak banalną prawdę filozoficzną, nie potrzeba było geniuszu Einsteina. Waga teorii względności polega na tym, że była to pierwsza teoria fizyczna, której przewidywania różniły się od naszych potocznych wyobrażeń o świecie. Opisuje ona zjawiska tak odległe od codzienności, że umysł ludzki nie może ich ogarnąć. W tym celu nieodzowny jest abstrakcyjny język matematyki (niekoniecznie zresztą wyższej).

Na tym konflikcie, pomiędzy otaczającą nas realnością doznań a rzeczywistością relatywistyczną, żerowała i żeruje po dziś dzień grupa frustratów obalających teorię względności, usiłujących niezgodność tę przekształcić w pozornie nierozwiązywalne paradoksy. Pewien znany fizyk, zresztą autor podręczników dla szkół średnich, stwierdził autorytatywnie, że teoria względności jest zbyt trudna, by mogła znaleźć się w programie szkolnym. Konflikt ten powoduje, że pomimo istnienia nieprzebranej ilości książek popularyzatorskich, olbrzymia rzesza ludzi, uważających się i uważanych za wykształconych, nie zna albo w ogóle nie rozumie teorii względności. To jest olbrzymie zadanie, stojące przed popularyzacją fizyki w społeczeństwie.

Prof. Sitek, prowadzący spotkanie — Dziękuję Państwu za dyskusję, profesorowi Lukierskiemu za poruszenie szerokiego kręgu zagadnień fizycznych i metafizycznych. Przypominam o skrzynce przy wyjściu, gdyż salon prof. Dudka jest finansowany przez nas — uczestników salonu.

 

 

 

 



[1]Renormalizacja — procedura obliczeniowa stosowana w kwantowej teorii pola (elektrodynamika kwantowa, chromodynamika kwantowa). W szczególności może być interpretowana jako sposób uwzględnienia wpływu pola kwantowej cząstki na jej własności (np. obserwowaną masę, wielkość ładunku elektrycznego itp.). Dzięki renormalizacji obliczane wielkości fizyczne mają skończone wartości.

[2]Doświadczenie Lamba — tzw. przesunięcie. Lamba (polaryzacja próżni) — nieznaczne względne przesunięcie obserwowanych poziomów energetycznych 2s1/2 i 2p1/2 w atomach wodoropodobnych, względem przewidywań kwantowo-mechanicznego równania Diraca, wyjaśnione przez W.E. Lamba na gruncie elektrodynamiki kwantowej dzięki uwzględnieniu oddziaływania elektronów z wirtualnymi fotonami i zjawisku polaryzacji próżni Jest sztandarowym efektem potwierdzającym doświadczalnie formalizm kwantowej teorii pola.

[3] Heisenberg Werner Carl (1901-1976) — wybitny niemiecki fizyk teoretyczny, profesor fizyki uniwersytetów kolejno w Lipsku, Berlinie i Getyndze, współtwórca mechaniki kwantowej, w latach 1924-25, teorii pola oraz teoretycznego wytłumaczenia zjawiska ferromagnetyzmu, autor tekstów filozoficznych i prac popularyzatorskich. W 1927 sformułował zasadę nieoznaczoności, mającą fundamentalne znaczenie dla fizyki kwantowej (Heisenberga zasada nieoznaczoności). W 1932 otrzymał Nagrodę Nobla "za stworzenie mechaniki kwantowej". Wprowadził pojęcie izospinu oraz koncepcję sił wymiany dla wyjaśnienia wiązania jądra atomowego. W czasie II wojny światowej brał udział w niemieckich pracach nad bronią jądrową, był bliski uruchomienia reaktora jądrowego.

[4] Schrödinger Erwin (1887-1961) — wybitny austriacki fizyk–teoretyk. Profesor m.in. politechniki w Stuttgarcie (od 1920) i w Zurychu (1921-1927) oraz uniwersytetów w Berlinie (1927-1933), Oxfordzie (1933-1935), Grazu (1936-1938), a także Institute for Advance Studies w Dublinie (1940-1955).

Sformułował równanie falowe opisujące nierelatywistyczną cząstkę. Był też autorem podstawowego sformułowania opartego na tzw. równaniu Schroedingera mechaniki kwantowej, za którą otrzymał w 1933 Nagrodę Nobla (obok P.A.M. Diraca).

 

[5] Dirac Paul Adrien Maurice (1902-1993) — wybitny angielski fizyk-teoretyk, współtwórca mechaniki kwantowej, w szczególności jej ujęcia dla cząstek ze spinem 1/2, w szczególności elektronów (równanie Diraca). Przewidział istnienie pozytonu i wniósł istotny wkład w rozwój elektrodynamiki kwantowej. Był profesorem uniwersytetów
w Cambridge i Oxford oraz członkiem Royal Society. W 1933 otrzymał (wraz z E. Schrödingerem) Nagrodę Nobla za sformułowanie i rozwój mechaniki kwantowej.

[6] Plancka stała, kwant działania, h — istnienie nowej, fundamentalnej stałej przyrody h odkrył M. Planck w 1900 r., badając zjawisko promieniowania ciała doskonale czarnego (prawo promieniowania Plancka). Wielkość h = 6,62491·10-34 [J·s], jest fundamentalną stałą fizyczną, kwantem momentu pędu (lub działania), za którego jednostkę uważa się wielkość:

 [wzór]

 

[7] Rezonanse — cząstki rezonansowe o bardzo krótkim czasie życia mniejszym od 10-20s. Należą do nich hadrony (mezony lub lub bariony ), czyli stany związane kwarków oraz antykwarków. Ich rozpad następuje za pośrednictwem oddziaływań silnych.

 

[8] Kwarki [ang.] — cząstki elementarne, składniki protonów, neutronów i innych hadronów; są cząstkami punktowymi o spinie 1/2, liczbie barionowej 1/3 i ładunkach elektr. będących ułamkiem 1/3 lub 2/3 ładunku elementarnego e. Znanych jest obecnie 6 rodzajów (zw. zapachami) kwarków: d, s i b (o ładunku –1/3e) oraz u i c (o ładunku +2/3 e).

 

[9] GeV, gigaelektronowolt w skrócie GeV, jednostka energii w fizyce atomowej równa 109 elektronowoltów (eV); wykorzystywana np. do określenia wielkości energii uzyskiwanej z hamowania cząstek w wielkich akceleratorach, opisu wielkości energii kosmicznego promieniowania pierwotnego.

 

[10] Rutherford Ernest sir, baron Rutherford of Nelson (1871-1937) — brytyjski fizyk urodzony w Nowej Zelandii. Opracował wspólnie z F. Soddym planetarny model atomu oraz teorię rozpadu promieniotwórczego. W 1908 r. otrzymał Nagrodę Nobla w dziedzinie chemii.

 

[11] Michelson Albert Abraham (1852-1931) — fizyk amerykański polskiego pochodzenia. Za konstrukcję precyzyjnych przyrządów optycznych (Michelsona interferometr), badanie widm promieniowania świetlnego (światło) i pomiar prędkości światła jako niezależny od ruchu względem układu otrzymał w 1907 Nagrodę Nobla.

 

[12] Manhattan Project — kryptonim amerykańskiego programu badań prowadzonego w latach 1942-1947, służącego do uzyskania  broni jądrowej w czasie II wojny światowej. Na jego czele stał generał Leslie R. Groves, w ramach programu pracowali najwybitniejsi fizycy znajdujący się w USA. Wśród nich wielu uciekinierów z Europy, głównie z Niemiec, m.in. R.J.Oppenheimer, A.H. Compton, N.Bohr, A. Einstein,
J. Franck, E. Fermi, L.W. Alvarez, E.O. Lawrence.

[13] Popper Karl Raimund (1902-1995) — austriacki filozof, logik. Od 1949 profesor uniwersytetu w Londynie. Centralnym problemem swojej filozofii uczynił analizę praw i zasad rozwoju wiedzy naukowej. Przeciwstawił się "czysto", logicznej analizie osiągnięć nauki neopozytywistów, panującej w kole wiedeńskim. Posłużył się koncepcją "trzech światów":
1) doznań, 2) sądów i czynów jednostkowych, 3) ludzkich wytworów mających charakter obiektywny, uniwersalny. Historię i rozwój nauki zaliczył do „trzeciego świata”, na który, jego zdaniem, nie mają wpływu dwa pozostałe, co zbliżyło go do koncepcji obiektywno–idealistycznych. Popper krytykował jednak Platona za to, że ów "trzeci świat" uznał za wytwór boski. Dla Poppera bowiem jest on wyłącznie tworem człowieka, który podlega ewolucji i w którym króluje argument i poszukiwanie prawdy.

[14]Falsyfikacja — procedura metodologiczna, której celem jest obalenie danego zdania, czyli wykazanie jego fałszywości. Falsyfikacja, zwana też negatywną weryfikacją, jest procedurą stosowaną przy akceptacji hipotez.

[15] Neutrino [wł. < łac.] — Trwałe cząstki elementarne z grupy leptonów o ładunku elektr. równym zeru, spinie 1/2ħ i na podstawie ostatnich pomiarów i bardzo małej prawie równej zeru masie spoczynkowej. Istnieją 3 neutrina i każdemu neutrinu odpowiada antycząstka — antyneutrino, która różni się od neutrina przeciwnym znakiem liczby leptonowej. Neutrina powstają w oddziaływaniach słabych (np. w rozpadzie promieniotwórczym) i nie uczestniczą w oddziaływaniach silnych ani elektromagnetycznych, wskutek czego odznaczają się ogromną zdolnością przenikania przez materię. Istnienie neutrina elektronowego przewidział
w 1930 W. Pauli, a odkryli je doświadczalnie 26 lat później F. Reines i C.L. Cowan; neutrino mionowe odkryli 1962 L. Lederman, M. Schwartz i J. Steinberger. Po wieloletnich badaniach neutrin słonecznych, atmosferycznych i otrzymywanych w akceleratorach i reaktorach jądrowych; w 1998 odkryto, że cząstki te jednak mają masę spoczynkową.

 

[16] stała Hubble'a współczynnik proporcjonalności o wymiarze 1 km/s/Mps. Stała Hubble’a pojawia się w tzw. prawie Hubble'a opisującym rozszerzanie się Wszechświata. W standardowym modelu ewolucji Wszechświata odwrotność stałej Hubble’a jest miarą jego wieku. Ostatnie (1994) oszacowanie jej wartości wynosi od 70 do 80 km/s/Mps, co prowadzi do określenia wieku Wszechświata na ok. 14 mld lat. Ostatnio wykazano, że stała Hubbla jest parametrem rosnącym w czasie.