Fizyka po Einsteinie
Prof. dr hab. Wojciech Sitek prowadzący spotkanie: Jerzy Lukierski urodził się w 1936 r.
w Warszawie. Jego rodzice, z zawodu nauczyciele, po wojnie postanowili
przeprowadzić się na Dolny Śląsk. Ukończył on następnie we Wrocławiu kolejne
szkoły: w 1952 r.
I Liceum Ogólnokształcące, a w 1956 Uniwersytet na Wydziale Matematyki, Fizyki i Chemii.
W studenckim gronie uznawany był za człowieka posiadającego artystyczną
duszę. Był autorem paru jednoaktówek dla teatru „Kalambur”, napisał także
pełnospektaklową sztukę, pt. Ananas dojrzewa powoli, która została
wystawiona
w teatrach zawodowych, m.in. w Poznaniu i Zielonej Górze. Swoje naukowe
i artystyczne pasje łączył z aktywną działalnością sportową. W 1955 r. został
mistrzem Polski juniorów w skoku w dal.
Po licznych sukcesach w różnych dziedzinach, Lukierski postanowił
ograniczyć inne działalności, prócz tej jednej — naukowej. Wszystkie swoje
zdolności, pracowitość
i ambicję skoncentrował na fizyce, zdradzając dla niej tym samym sport
i dramaturgię.
Z łatwością zdobywał kolejne tytuły naukowe, gdyż był naprawdę znakomity
w tym, co robi. W maju 1961 r. obronił pracę doktorską, pod kierunkiem prof. Jana
Rzewuskiego. W latach 1962–1965 wyjechał za granicę. Później miał wstrzymane
wyjazdy
z PRL, gdyż miał problemy z paszportem, ze względu na swój przedłużony pobyt w
Indiach. Fakt ten nie opóźnił jednak, nawet w najmniejszym stopniu, jego
rozwoju naukowego.
W 1967 r. obronił habilitację na Uniwersytecie Wrocławskim, w 1974 r. uzyskał
tytuł profesora nadzwyczajnego, a w 1983 r. zwyczajnego.
W latach 1977–1990 prof. Lukierski był zastępcą dyrektora Instytutu
Fizyki Teoretycznej Uniwersytetu Wrocławskiego d/s naukowych, a od września
1990 r. jest jej dyrektorem. Był promotorem 15 doktoratów, wydał ponad 250
publikacji. Ma uznanie
w wielu ośrodkach naukowych o międzynarodowej renomie. Jest wybitnym naukowcem,
jego prace odznaczają się wyjątkowymi pomysłami i oryginalnością. Za swoje
osiągnięcia otrzymał parokrotnie nagrody Ministra Edukacji Narodowej, a w 1995
r. został laureatem nagrody im. Marii Skłodowskiej–Curie, najważniejszej
polskiej nagrody naukowej
w dziedzinie fizyki i chemii, przyznawanej w latach nieparzystych fizykom, a w
latach parzystych chemikom. W obecnej kadencji (1999–2003) jest
vice–przewodniczącym Komitetu Fizyki Polskiej Akademii Nauk.
Ma żonę, Elżbietę, utalentowaną artystkę, młodszą od niego o 26 lat. Jest
ojcem dwójki dzieci: Roberta i Urszuli. Chętnie pomaga swym studentom, udziela
im często swoich rad. Zawsze przyjazny i otwarty w stosunku do ludzi, spotyka
się z powszechnym uznaniem
i szacunkiem.
Prof. Jerzy Lukierski
Albert Einstein dokonał swoich najważniejszych odkryć w pierwszym dwudziestoleciu XX wieku, a więc blisko 100 lat temu. Sporo zdarzyło się od tego czasu. Fizyka ma wiele twarzy, więc będę mówił tylko o tej, która się łączy z nazwiskiem Einsteina. Jest to kierunek badań, który dotyczy podstawowych praw fizycznych opisujących strukturę materii i jej składniki. Odnosi się on do budowy naszego świata od strony mikro — dotyczy najmniejszych elementarnych składników materii. Jest to domena fizyki relatywistycznej i kwantowej.
Czy to jest ważny dział fizyki? Uważam, że bardzo ważny i działający na wyobraźnię. Jest tutaj paru moich kolegów, mających nieraz, nawet na najważniejsze sprawy w fizyce, trochę inny pogląd od mojego, co zapowiada ciekawą dyskusję.
Duża część nagród Nobla z fizyki dotyczy osiągnięć wynikłych z zastosowania teorii względności i teorii kwantowej. Większość
tych wyników, premiowanych nagrodą Nobla, odnosi się w zasadzie do dokonań
natury teoretycznej.
Fizyk-teoretyk może sobie postawić następujące cztery pytania, dotyczące opisu podstawowej struktury materii:
I.
Jakie są podstawowe składniki materii, tzn. jeżeli
dokonujemy eksperymentu, to jakie mikroobiekty są na danym etapie badań uważane
za najmniejsze elementarne i niepodzielne?
II.
Jakie siły działają między elementarnymi składnikami
materii?
III.
W jakiej przestrzeni w mikroświecie zachodzą procesy
fizyczne?
IV. Jakie symetrie ma zaproponowana przestrzeń i sformułowana w niej teoria? Wychodząc od pojęcia nowych symetrii wprowadza się supersymetrie, superstruny, superprzestrzeń i tzw. Teorie Wszystkiego.
Moje wprowadzenie będzie dotyczyło wyżej wymienionych pytań. Przed Einsteinem mieliśmy fizykę nierelatywistyczną. Jej podstawowym aksjomatem jest niezależność przestrzeni i czasu. W fizyce nierelatywistycznej mówi się, że czas jest parametrem, a przestrzeń to trójwymiarowa przestrzeń, w której dzieją się zjawiska.
Na początku XX wieku nieznany urzędnik biura patentowego w Bernie opracował teorię, która zmieniła naszą wizję świata. Została ona nazwana teorią względności, mimo, że podstawowym postulatem, na którym się ona opiera, jest założenie bezwzględnej wartości liczbowej dla pewnej wielkości fizycznej, którą jest prędkość światła w próżni (w dalszej części moich rozważań mówić będę po prostu „prędkość światła”).
W swoich pamiętnikach Leopold Tyrmand pisze, że wiek dwudziesty ukształtowany został przez trzy wielkie nurty myślowe, związane z nazwiskami Marksa, Freuda i Einsteina. Niewątpliwie tymi postaciami został naznaczony cały wiek dwudziesty.
Pierwsze
dwudziestolecie XX wieku to epoka odkryć Einsteina. Najpierw powstała w 1905 r.
szczególna teoria względności, która połączyła przestrzeń i czas, wprowadzając
czasoprzestrzeń relatywistyczną, a następnie, dziesięć lat później, została
sformułowana ogólna teoria względności. Ta ostatnia mówi nie tylko o czasie
i przestrzeni, ale także o pewnej fizycznej interpretacji zakrzywionej
czasoprzestrzeni, związanej z istnieniem oddziaływań grawitacyjnych.
W następnym
dwudziestoleciu powstały teorie kwantowe, które stały się nowym, obecnie chyba
najważniejszym działem fizyki teoretycznej. Korzystamy w niej
z następujących czterech podstawowych teorii dynamicznych:
I. mechaniki klasycznej;
II. mechaniki kwantowej — otrzymuje się ją przez kwantowanie mechaniki klasycznej (stała Plancka);
III. klasycznej teorii pola — przykładem mogą być teorie pola magnetycznego, elektrycznego, grawitacyjnego oraz prawa oddziaływania mas i ładunków elektrycznych: Newtona i Coulomba;
IV.
kwantowej teorii pola — otrzymanej przez skwantowanie
klasycznej teorii pola. Skwantowana klasyczna fala elektromagnetyczna opisuje
fotony: są to obiekty, które mają określone energie, ale zgodnie z zasadą
nieoznaczności, nieokreślone położenie. Podobnie rzecz się ma
w kwantowej teorii grawitacji: fale grawitacyjne zadają grawitony, obiekty,
które mają określone energie, lecz nieokreślone położenie.
Fizyka nowoczesna, która
powstała w XX w. stoi zatem na dwóch filarach: relatywiźmie Einsteina i na
kwantowości (której wyrazem teoretycznym jest np. mechanika kwantowa). Z kolei
teoria, która jest używana do opisu cząstek elementarnych, powstała
w latach trzydziestych XX w. i nazywa się kwantową teorią pola. Prowadzi ona do
kwantowej teorii oddziaływań cząstek elementarnych, ale niestety nie można było
jej stosować rachunkowo bez ograniczeń do obliczenia sił między obiektami
elementarnymi. Powstawały w trakcie rachunków bardzo nieprzyjemne
nieskończoności. Sposobem na ich usunięcie okazała się tzw. teoria
renormalizacji[1], która
przystosowała kwantową teorię pola do jej pragmatycznej roli — wykonywania
pewnych rachunków, które pozwalają na porównywanie teorii z doświadczeniem. W
1949 r. bardzo ważne doświadczenie Lamba[2]
pokazało, że kwantowa teoria pola jest bardzo przydatna do obliczania efektów,
które obserwujemy
w doświadczeniach.
Są takie nazwiska przed którymi fizycy–teoretycy
pochylają głowy:
Wernera Heisenberga[3],
Erwina Schrödingera[4] i
Paula Diraca[5].
Stworzyli oni schemat teorii kwantowych: pierwszych dwóch — mechaniki
kwantowej, a trzeci — kwantowej teorii pola. Kwantowe
podejście mówi, że nie można dokonywać wszystkich pomiarów
z dowolną dokładnością — istnieją pary tzw. pomiarów komplementarnych,
w których jeżeli jeden wykonamy z większą, to drugi możemy wykonać tylko
z odpowiednio mniejszą dokładnością. Błędy pomiaru są zapisywane zgodnie z tzw.
zasadą nieoznaczoności Heisenberga, która wprowadza stałą Plancka[6].
W fizyce oznacza to, że
w mikroświecie nie można wykonać wszystkich możliwych pomiarów z dowolną
dokładnością. Przykładem może być tu położenie i
pęd. Jeżeli znamy dokładnie położenie, to nie możemy dokładnie zmierzyć
prędkości lub pędu. Jeżeli znamy dokładnie czas, w którym badamy jakieś
zdarzenie, to nie możemy znać dokładnie energii. To jest podstawowa własność
teorii kwantowej. Inna jej charakterystyka dotyczy wyników niektórych pomiarów:
nie mogą być one opisane przez dowolne liczby, lecz tylko przez takie, które
tworzą określony zbiór dyskretny, tzn. nieciągły. Przykładem takich liczb są
wielkości kwantów energii, określone np. przez zmiany poziomów energetycznych
atomu.
Następnym ważnym postulatem w teorii kwantowej jest to, że daje ona jedynie prawdopodobieństwo uzyskania określonych wyników pomiaru, np. określonego położenia czy żądanej energii. Podstawowym obiektem, opisującym stan układu kwantowego, jest funkcja falowa, która umożliwia uzyskanie prawdopodobieństwa pomiaru. Determinizm, jako opis ewolucji w czasie, dotyczy tu funkcji falowej, a nie samych wartości pomiarów.
Teraz przejdziemy do kwantowej teorii pola. Elektrodynamika kwantowa jest
w obecnej chwili bardzo dokładną teorią fizyczną, wzorują się na niej inne
teorie
(np. chromodynamika kwantowa). Jest ona przykładem tzw. teorii pól cechowania.
W kwantowej teorii pola został zrealizowany dualizm między falami i materią,
który można także opisać jako dualizm między siłami i źródłami. Siły
oddziaływania mają dualną naturę — mogą być opisane jako fale lub jako wymiana
wirtualnych cząstek.
W klasycznym ujęciu źródłami pola są ładunki elektryczne, pomiędzy
którymi działają siły w postaci statycznej (potencjał Coulomba) lub poprzez
emisję
i absorbcję fal elektromagnetycznych. Jeżeli chcemy opisać jak oddziałują
elektrony to wymieniamy tzw. wirtualne fotony między nimi, a jeśli chcemy
zbadać oddziaływanie pomiędzy fotonami, to wymieniamy wirtualne elektrony. W
kwantowej teorii pola pole kwantowe spełnia jednocześnie dwie role — opisuje
źródła materii oraz oddziaływania między materią. Opis oddziaływania w
kwantowej teorii pola jest ściśle związany z nową możliwością, której nie
obejmuje mechanika kwantowa: opisu kreacji i anihilacji cząstek.
Dirac, wprowadzając kwantową teorię pola, musiał brać pod uwagę również antycząstki, z których jest zbudowana tzw. antymateria. Najpierw to pojęcie było wyprowadzone teoretycznie, a potem dopiero zostało potwierdzone doświadczalnie. Historia odkrycia antymaterii jest wspaniałym dowodem na to, jaką siłę może mieć teoria. Bardzo trudno jednak antycząstkę zobaczyć, bo szybko jest anihilowana przy zderzeniu z materią.
Okazuje się, że kwantowe teorie pola, które służą do opisywania
elementarnych składników materii, dzielą się na „dobre” i na „złe”. Model
Standardowy, używany obecnie do obliczeń związanych z oddziaływaniem cząstek,
jest „dobrą” kwantową teorią pola. Natomiast „złą” jest kwantowa grawitacja,
gdyż można udowodnić, że nie sprawdzają się
w niej pewne metody rachunkowe, które mają zastosowanie w Modelu Standardowym.
Rozwój nowych koncepcji teoretycznych polega w dużej mierze na wprowadzeniu
uogólnień modelu kwantowej grawitacji, aby stała się ona „dobrą” kwantową
teorię pola. W ramach opisu „złych” teorii, które poprzez matematyczny trick
stają się „dobrymi”, powstał wcześniej wspomniany program renormalizacji.
Przejdziemy teraz do chyba najważniejszego problemu podstaw fizyki teoretycznej — opisu geometrycznego klasycznej i kwantowej teorii grawitacji. Einstein „zakrzywił” czterowymiarową czasoprzestrzeń i otrzymał, w wyniku logicznego rozumowania, teorię grawitacji. Prawie cały słynny wykład Riemanna z 10 czerwca 1854 r. na temat jego nowej geometrii znalazł swoje odbicie w teorii Einsteina z 1915 r., a sam tensor metryczny okazał się zapisem pola grawitacji. Cztery lata później Kaluza (niektórzy wymawiają Kałuża, gdyż miał polskie pochodzenie), wprowadził pięciowymiarową czasoprzestrzeń, a mianowicie cztery składowe przestrzenne i czas. W 1919 r. Einstein został zaskoczony listem otrzymanym od nieznanego mu matematyka Theodora Kaluzy z Königsbergu, który zaproponował rozwiązanie problemu połączenia, czyli unifikacji teorii grawitacji z teorią światła Maxwella. Otóż Kaluza dodał jeden wymiar przestrzenny do czterowymiarowej czasoprzestrzeni Einsteina i założył, podobnie jak kiedyś Riemann, że światło jest zaburzeniem spowodowanym przez "pofałdowanie" tego piątego wymiaru. Okazało się, że te pięciowymiarowe równania grawitacji Kaluzy zawierają w sobie czterowymiarową teorię Einsteina (czego należało oczekiwać) wraz z pewnym dodatkiem, którym była dokładnie teoria światła Maxwella, czyli teoria pola elektromagnetycznego.
Pięciowymiarowa teoria grawitacji łączyła i opisywała, przez zakrzywienie
piątego wymiaru, teorię grawitacji Einsteina i teorię pola Maxwella. Następnie
w 1925 r. Klein zapostulował, że piąty wymiar jest zakrzywiony w prosty sposób
— tworzy kółko
o bardzo małym promieniu. Na tej drodze następnie wykazano, że ładunki elektryczne
w przyrodzie są dyskretne, mogą przyjmować tylko wartości będące
wielokrotnością ładunku elektrycznego. Powstała wtedy teoria, nazywana obecnie
teorią Kaluzy–Kleina, która dopiero w latach sześćdziesiątych i
siedemdziesiątych została ponownie wzięta na warsztat badawczy
fizyków–teoretyków.
W latach trzydziestych i czterdziestych dwudziestego wieku najważniejszym faktem było przede wszystkim odkrycie wielu nowych cząstek, co stanowiło pewien kłopot dla teoretyków, gdyż coraz trudniej było wprowadzić model oddziaływania dla każdej z nich. W związku z tym zaczęto przypuszczać, że te cząstki elementarne składają się z jeszcze mniejszych, bardziej elementarnych części składowych. Zaczęto ponadto badać tzw. rezonanse[7]. Są to cząstki elementarne, które rozpadają się tak szybko, że często się ich nie obserwuje, tylko wyprowadza z matematycznych rachunków wnioski, że one istniały przez bardzo krótki czas.
Do
lat dziewięćdziesiątych wykryto ponad 200 cząstek i rezonansów, zwanych
elementarnymi. Powstał problem z tym jak je sklasyfikować. W tym celu
wprowadzono
w latach sześćdziesiątych nowe, bardziej elementarne hipotetyczne obiekty
elementarne, tzw. kwarki[8],
z których są złożone cząstki obserwowane w naturze, jak np. protony czy
neutrony w jądrze atomowym. W latach siedemdziesiątych wprowadzono także tzw.
gluony, opisujące oddziaływanie między kwarkami. W ten sposób na początku lat
siedemdziesiątych powstał model opisujący oddziaływanie kwarków i gluonów —
chromodynamika. W tym też czasie fizycy stworzyli teorię, zwaną Modelem
Standardowym, która opisuje materię oraz wszystkie (z wyjątkiem grawitacji)
siły we Wszechświecie. Potrafi ona wyjaśnić skomplikowane procesy oraz budowę i
własności wielu obserwowalnych cząstek przy pomocy niewielu nowych obiektów
elementarnych i oddziaływań pomiędzy nimi.
Mamy
trzy podstawowe oddziaływania w Modelu Standardowym:
1. Oddziaływania silne — pomiędzy „kolorowymi” kwarkami, przenoszone przez gluony, a jednym z przejawów tych oddziaływań są siły wiążące jądra atomowe. Teoria silnych oddziaływań nazywa się chromodynamiką i została zaproponowana na początku lat siedemdziesiątych. Gluony są lepiszczem pomiędzy kwarkami. Tak jak, powiedzmy, w XIX wieku badano ładunki elektryczne, które oddziałują przy pomocy pola elektromagnetycznego, tak w Modelu Standardowym rozpatrujemy kwarki, które są powiązane polem opisującym kwanty gluonowe.
Kiedy rozpędzone do wielkich energii (rzędu 1000 GeV[9]) jądra zderzają się ze sobą, przez krótką chwilę kwarki i gluony poddane zostają ciśnieniom i temperaturom porównywalnym z ciśnieniem i temperaturą panującą we wnętrzach gwiazd. W tych ekstremalnych warunkach powstaje nowy, egzotyczny stan skupienia materii zwany plazmą gluonowo-kwarkową.
Chromodynamika kwantowa, czyli teoria oddziaływania kwarków i gluonów,
w zastosowaniach do opisu cząstek elementarnych jest jedną z bardziej
skomplikowanych teorii w fizyce teoretycznej. Dość skutecznie opiera się
dotychczas wysiłkom badaczy, próbujących przy pomocy dokładnych formuł opisać
także zachowanie materii w warunkach ekstremalnych. Nie ulega jednak
wątpliwości, że zrozumienie fizyki plazmy gluonowo-kwarkowej będzie miało duże
znaczenie nie tylko dla astrofizyki i kosmologii, ale może mieć też
konsekwencje praktyczne.
2. Oddziaływania elektromagnetyczne — pomiędzy
cząstkami obdarzonymi ładunkiem elektrycznym lub momentem magnetycznym; są
przenoszone przez kwanty pola elektromagnetycznego — fotony. Jest to najstarsze
i najlepiej zbadane oddziaływanie cząstek elementarnych.
3. Oddziaływania słabe —
odpowiedzialne m.in. za oddziaływania neutrin
i rozpady hadronów, a ich nośnikiem są (odkryte w 1983 r.) bozony pośredniczące
W±
i Z0. Teoria słabych oddziaływań została sformułowana w latach
sześćdziesiątych.
Oddziaływania grawitacyjne, nie uwzględniane w Modelu Standardowym, powodują wzajemne przyciąganie wszystkich ciał i są przenoszone przez kwanty pola grawitacyjnego — grawitony. Jest to najsłabsze ze znanych oddziaływań.
Model Standardowy ma, przynajmniej z perspektywy fizyka–teoretyka,
jeszcze wiele wad i nie może być traktowany jako ostateczna fundamentalna
teoria oddziaływań elementarnych. Po
kilku dziesiątkach lat sukcesów mechaniki kwantowej i powstaniu Modelu
Standardowego, przypomniano sobie znowu o teorii Kaluzy-Kleina z lat
dwudziestych
i zaczęto wracać do idei wyższych wymiarów. Coraz wyraźniej były widoczne
problemy kwantowej teorii grawitacji. Z tych problemów i próby wykorzystania
idei Kaluzy i Kleina wyłoniła się teoria supergrawitacji, przedstawiona
w 1976 r. przez trzech fizyków
z Uniwersytetu w Stony Brook: Daniela Freedmana, Sergio Ferrarę i Petera van
Nieuwenhuizena. Teoria ta, już po dalszych udoskonaleniach, opierała się na
jedenastowymiarowej czasoprzestrzeni. Sformułowanie superteorii Kaluzy-Kleina w
tylu wymiarach pozwalało także na geometryzację pól, które nazywamy polami
fermionowymi.
Superprzestrzeń jest to taka dziwna przestrzeń, w której poza normalnymi współrzędnymi mamy również dodatkowe wymiary, opisane pseudoliczbami, których kwadraty znikają. Tworzą one tzw. algebrę Grassmana. Supersymetria wynika z tego, że do normalnej przestrzeni dodajemy te dodatkowe wymiary opisane pseudoliczbami, wprowadzając tzw. współrzędne nieparzyste. Chcąc zgeometryzować wszystkie oddziaływania cząstek, powinniśmy wprowadzić supersymetrie. Jednym z twórców teorii supersymetrycznych jest fizyk– teoretyk wrocławski, prof. Jan Łopuszański, obecny tutaj na sali.
W ostatnim dwudziestoleciu pojawiły się w ramach teorii supersymetrycznych trzy nowe koncepcje, tzw. „Teorie Wszystkiego”. W latach 80. powstała pierwsza, która była właśnie jedenastowymiarową supergrawitacją, druga była teorią superstrun, a trzecią — tzw. M–teoria.
Teoria supersymetrii implikuje, że do pola grawitacyjnego i do pól Modelu Standardowego należy dodać dużo dodatkowych pól, związanych z wprowadzeniem supersymetrii. W superprzestrzeni można opisać przez jej zakrzywienie nie tylko pole grawitacji, lecz też wszystkie pola Modelu Standardowego, co w konsekwencji prowadzi do modelu tzw. maksymalnie rozszerzonej supergrawitacji. Taki model to jedenastowymiarowa teoria supergrawitacji. Ona to właśnie przez angielskiego wybitnego fizyka–teoretyka Stevena Hawkinga została ogłoszona jako „Teoria Wszystkiego”. Wkrótce jednak jej miejsce zajęła teoria superstrun.
Dlaczego zatem
powstała teoria superstrun? Otóż pod koniec lat 80. okazało się, że nawet
jedenastowymiarowa supergrawitacja nie jest w pełni „dobrą” kwantową teorią
pola. Powstała wówczas nowa teoria, oparta na założeniu, że fizyczne punkty nie
są
w rzeczywistości punktami, tylko małymi strunami o wymiarze rzędu 10-33
cm. Punkty
w starych teoriach zamieniono więc na malutkie struny — była to duża rewolucja
w podstawach geometrycznych teorii cząstek elementarnych. W latach
dziewięćdziesiątych ustalono teoretycznie, że istnieje jednak pięć w zasadzie
równoważnych, lecz różnych modeli superstrun w dziesięciu wymiarach
czasoprzestrzeni. Powstało pytanie, który z tych pięciu modeli superstrun jest
prawdziwy. Przyjęto punkt widzenia, że należy szukać teorii, w której wszystkie
pięć modeli będą specjalnym przypadkiem dla jeszcze ogólniejszej, nowej teorii,
tzw. M–teorii, która jest najnowszą „Teorią Wszystkiego”. Swoim formalizmem ma
ona objąć zarówno jedenastowymiarową supergrawitację jak i wszystkie pięć
teorii superstrun. Jednym z modeli M–teorii jest dwuwymiarowa supermembrana
zanurzona w jedenastu wymiarach.
M–teoria postuluje istnienie
mikroskopijnych obiektów (wielkości ok. 10-33 cm), które można sobie
wyobrazić na podobieństwo strun, prostych lub zwiniętych w pętle,
a także membran i tzw. p–bran (obiektów p–wymiarowych). Wirują one, skręcają
się i oscylują nie tylko w czterech znanych wymiarach (trzy przestrzenne i
jeden czasowy), lecz także w sześciu lub siedmiu dodatkowych, dla człowieka
niewidocznych. To teoria, która obecnie obiecuje syntezę wszystkich nam znanych
praw fundamentalnych oddziaływań.
Dlaczego
nowa teoria nie może się obejść bez dziesięciu czy jedenastu wymiarów? Dlaczego
ich nie widzimy? Uczeni tłumaczą, że podczas ewolucji Wszechświata niewidoczne
dla nas wymiary musiały się skurczyć. Obecnie są np. zwinięte w kulki
o średnicy miliardy raza mniejszej niż średnica jądra atomu. Istnienie wielu
wymiarów pozwala zaś matematycznie wyjaśnić, dlaczego na co dzień widzimy tak
różne rodzaje materii. Czy opis przyrody jako drgających strun i membran w
dziesięciu lub jedenastu wymiarach jest prawdziwy zdecydują w ostateczności
przyszłe eksperymenty i obserwacje procesów astrofizycznych. Na razie jesteśmy
dalecy od potwierdzenia takich koncepcji przez doświadczenie, takie pytania są
teraz motorem działań fizyków–teoretyków, badających strukturę matematyczną
teorii oddziaływań fundamentalnych w przyrodzie.
Należy
podkreślić, że szczególnie ważnym krokiem w tych badaniach są doświadczenia w
dziedzinie fizyki wysokich energii, przeprowadzane np. w CERN–ie
w Genewie. W szczególności odkrycie supersymetrii miałoby niezwykle doniosłe
znaczenie dla fundamentalnych badań teoretycznych, w których usiłuje się
połączyć teorie cząstek elementarnych i grawitacji. Teoria superstrun również
przewiduje teoretycznie istnienie supersymetrii. Odkrycie w doświadczeniach
cząstek supersymetrycznych byłoby więc ważnym krokiem do jej potwierdzenia, zaś
ich brak byłby dla niej (jak również dla wielu nowych koncepcji unifikacji)
prawdziwym problemem.
Sformułowanie hipotezy supersymetrii stanowi bez
wątpienia jedno
z ważniejszych osiągnięć współczesnej fizyki teoretycznej. Symetria ta jest
uogólnieniem relatywistycznych symetrii czasu i przestrzeni, odkrytych na
początku XX wieku przez Lorentza i Einsteina. Z punktu widzenia fizyki cząstek
elementarnych, supersymetria jest szczególnie ważna, ponieważ umożliwia budowę
klasy nowych modeli, będących naturalnym uogólnieniem Modelu Standardowego.
Kończąc
moje wprowadzenie do dyskusji chcę podkreślić, że rozwój fizyki teoretycznej
jest zorientowany w kierunku opisu coraz mniejszych odległości mikroświata.
Klasyczna teoria grawitacji, wprowadzona w 1915 r., ma z kolei ważne
konsekwencje dla większych odległości. Jednym z istotnych wniosków
wypływających z teorii i równań Einsteina jest istnienie czarnych dziur
(opisują one obszar, z którego nie może wydobyć się światło i są w tym sensie
doskonale czarne) oraz brak statycznego, symetrycznego modelu wszechświata.
Jeżeli model jest symetryczny, to musi się rozszerzać albo kurczyć.
Z obserwacji wynika, że wszechświat się rozszerza, a nawet rozszerza się z
przyśpieszeniem, w związku z czym powstał odpowiedni model rozszerzającego się
wszechświata, który można wyprowadzić matematycznie.
W
przypadku szczególnej teorii względności fakt, że prędkość światła ma wartość
stałą wykryto eksperymentalnie, jeszcze przed powstaniem szczególnej teorii
względności
w 1905 r. Inna sytuacja wystąpiła w kontekście ogólnej teorii względności,
sformułowanej przez Einsteina w 1915 r. W tym przypadku Einstein–teoretyk
przewidział zjawiska, których jeszcze nie znano doświadczalnie, a pierwszy
eksperyment potwierdzający ogólną teorię względności został przeprowadzony
dopiero w cztery lata po jej sformułowaniu.
W astrofizyce uważa się obecnie, że czarne dziury zostały udowodnione także
doświadczalnie. Istnienie fal grawitacyjnych, wynikających z ogólnej teorii
względności w jej wersji kwantowej, to teraz przedmiot bardzo ważnych
doświadczeń. Także supersymetrie czekają pilnie w kolejce na potwierdzenie doświadczalne.
Na
sam koniec chciałbym podkreślić, że nowe idee fizyki teoretycznej mają już
swoje miejsce w świadomości społecznej. W dwutygodniku „New Yorker” (09.1998)
jest dowcip, przedstawiający parę młodych ludzi na wystawie współczesnego
malarstwa. Jedno
z nich mówi: „Wszystko to jest dla mnie teorią strun”, a z rysunku wynika, że
chodzi
o synonim spraw trudnych do pojęcia. Z tego wynikają następujące dwa wnioski:
po pierwsze, że teoria strun jest niezrozumiała, lecz także po drugie, że
jeżeli pojawia się w nienaukowym czasopiśmie taki dowcip, oznacza to, że teoria
strun już wchodzi
w zbiór pojęć raczej szerzej znanych. Tworzą one słownik współczesnej kultury,
która zapożycza takie pojęcia także z katalogu odkryć fizyki teoretycznej.
Andrzej Morawiecki, Uniwersytet Wrocławski, biolog — Model atomu Rutheforda[10] (w postaci systemu planetarnego, czyli jądro jako kulka i elektrony również w postaci kulek, krążące wokół niego), można było łatwo sobie wyobrazić. Okazało się, że taki model nie zgadza się z doświadczeniem, nie ma swego odzwierciedlenia w rzeczywistości. Narodziny współczesnej fizyki, a więc powstanie teorii względności i teorii kwantowej, stworzyły trudny i skomplikowany, dla większości z nas, sposób poznawania świata. Zostały przyjęte założenia sprzeczne z tym, co można sobie wyobrazić.
Dla biologa jest rzeczą zupełnie zrozumiałą, że mogą istnieć zjawiska, dla których nie można stworzyć wyobrażalnych modeli. Nasz mózg ewoluował po to, abyśmy mogli przeżyć w świecie makroskopowym. Zasób wiadomości o budowie atomu jest nam do tego niepotrzebny. Nasza logika jest wynikiem ewolucji systemu nerwowego i dobrze funkcjonuje na poziomie zjawisk makroskopowych. Czy te „zasady logiki” dają się również zastosować do rozważań na skalę mikro? Czy też należy dokonać pewnych odstępstw i założyć wykonywanie pewnych operacji logicznych jako niezgodnych z tymi przyjętymi w świecie makroskopowym?
Prof. J. Lukierski — Wielkości makroskopowe, czyli takie, które dotyczą naszych doświadczeń w życiu codziennym, są opisane przez teorię, która pasuje do naszych wyobrażeń i jest związana z klasycznym opisem zjawisk fizycznych. Z kolei odległości mikroskopowe, np. porównywalne z rozmiarami elektronu, rządzą się innymi zasadami. Obowiązują tu odmienne reguły mechaniki kwantowej, lecz z drugiej uznane reguły logiki i matematyki. W świecie makroskopowym stosuje się deterministyczny opis do liczb określających pomiar, a w mikroskopowym do prawdopodobieństw pomiaru. Można powiedzieć, że logika w obu teoriach jest podobna, lecz inaczej zastosowana.
Odległość
Plancka (ok. 10-33 cm.) określa ten supermikroświat, którego nie
znamy, a którego struktura mogłaby nam więcej powiedzieć np. o początku świata,
o Wielkim Wybuchu. O efektach kwantowych świadczy także w naturze bardzo mała
tzw. masa spoczynkowa, np. foton jest „bardzo kwantowy”, bo nie ma masy
spoczynkowej. Kula ziemska też implikuje pewien efekt kwantowy, który jest
jednak absolutnie niezauważalny. Prawa fizyczne działają w różnych obszarach, a
ich zastosowanie polega na umiejętności przejścia, w zależności od badanego
zjawiska, z jednego zakresu stosowalności teorii do drugiego. Gdy np. prędkość
cząstki zbliża się do prędkości światła, należy przejść od fizyki newtonowskiej
do einsteinowskiej. W konkluzji trzeba pamiętać, że fizyk swym rozumieniem
przekracza wyobrażenia innych ludzi i chociaż dla niego arena zjawisk na dużych
i małych odległościach wygląda różnie, to matematyka i logika jest taka sama.
A. Morawiecki — Moje następne pytanie dotyczy obserwacji narodzin coraz to nowszych cząstek. Jeżeli model pewnej cząstki nie pasuje do danych doświadczalnych, stwierdzamy, że cząstka ta ma strukturę. Jeżeli cząstka uznana za elementarną nadal nie uzyskuje potwierdzenia w eksperymencie, twierdzimy, że składa się z jeszcze mniejszych składowych. Czy droga przewidywania teoretycznego na istnienie nowych struktur, a później ich odkrywania eksperymentalnego, nie prowadzi do nieskończoności?
Prof.
Lukierski — Uważam, że jest to pytanie metafizyczne, gdyż fizyk nie będzie
zastanawiał się, czy materia jest nieskończenie podzielna. Jeżeli mamy ciąg
liczb
i znamy kawałek tego ciągu, to nie możemy powiedzieć, jak wygląda pozostała
jego część. Podobnie jest w fizyce: buduje się pewną konstrukcję teoretyczną
niepodzielnego obiektu, lecz jeśli okazuje się, że będzie potrzebna, z różnych
przyczyn, jego struktura złożona, to się ją wprowadza niezależnie nawet od
eksperymentu.
Prof. dr hab. Jan Klamut, fizyk-teoretyk, PAN — Uprawiałem fizykę teoretyczną przez kilkanaście lat, ale zdradziłem ją dla eksperymentu. W całym wykładzie zamiast o rzeczywistości, czyli eksperymencie, mowa była o duchach i cieniach tych duchów. Co jest zatem podstawowym kryterium wyboru tej czy innej drogi, w momencie, gdy fizyk-teoretyk operuje tylko ścisłą logiką? Matematyka jest jej rozwinięciem, a fizyka teoretyczna jest nauką zupełnie zmatematyzowaną i nie ma w niej nic poza logiką. Tu jest tylko matematyka.
Każdy kto zajmuje się fizyką, psychologią czy w ogóle materią ożywioną, musi uciekać od konkretnej odpowiedzi, bo taka tu nie istnieje, a zamiast niej nasuwają się przeróżne konkluzje. Operujemy prawdopodobieństwem, bierzemy pod uwagę wiele wymiarów.
Kiedy
nie znamy odpowiedzi na pytanie, wymyślamy coś i tworzymy zupełnie coś innego.
Kiedy w dwóch czy w trzech wymiarach, nie możemy znaleźć żadnej prawidłowości,
periodyczności czy symetrii, którą lubimy, wystarczy dodać jeszcze jeden czy
dwa wymiary, a wtenczas układ zaczyna być periodyczny, symetryczny. To jest ta
sztuka, którą tu się dokonuje. Dodawanie wymiaru jest ucieczką od niemożności.
Czy to można zrozumieć? Na pewno można daną prawidłowość wyliczyć, ale na
poziomie mikro nie istnieje już problem,
w jaką postać ją ubrać, np. w kulki, w
pieska czy kotka.
Przeglądając
prace wybitnych fizyków-teoretyków, bardzo często mam wrażenie, że dążą oni do
uzyskania estetyki, która jest przecież jednym z najważniejszych kryteriów
budowy teorii fizycznej. Znaczy to tyle, że teoria musi być ładna, zgrabna i
prosta. Dodają oni kolejny wymiar przestrzeni lub też idą w drugą stronę i
dzielą cząstki, dopóki dana prawidłowość nie zostanie zrozumiana. Jest to
dążenie do prostoty.
Jestem
związany z eksperymentem, w związku z czym chciałem zaznaczyć, że zdolny
eksperymentator-fizyk, potrafi znaleźć potwierdzenie prawie każdej teorii. W
związku z tym teoretycy i eksperymentatorzy są dla mnie podejrzani. Będąc
teoretykiem, miałem duże zaufanie do eksperymentu, ale później zobaczyłem drugą
stronę medalu. Fizycy są rozsądni
i inteligentni na tyle, że z każdego nowo sformułowanego prawa, wyjdą obronną
ręką.
Czy zatem estetyka w twojej pracy nie była ważna? Matematyka, którą posługują się fizycy jest potrzebna, żeby móc więcej zrozumieć. Oczy są zwierciadłem duszy i kiedy nie stosowaliśmy opisów matematycznych, to po prostu filozofowaliśmy. Już bowiem dawni filozofowie (np. św. Augustyn) wiedzieli, że czas powstał wraz z materią. Matematycy twierdzą, że można to udowodnić za pomocą procesu myślowego.
Prof. Łopuszański — Piękno i estetykę zostawmy krawcom i
szewcom.
Prof. Lukierski — Kiedy byłeś teoretykiem, nie byłeś takim cynikiem. Fizyk-teoretyk posługuje się matematyką, a kwestią gustu pozostaje fakt, czy struktury matematyczne są estetyczne, czy po prostu są. Jest powiedzenie, że matematyka jest mądrzejsza od człowieka, tzn. że jeżeli umiejętnie wsiądziemy na wózek matematyki, to daleko na nim zajedziemy. Nie kierujemy się w swych pracach kryterium estetycznym, tylko argumentami mającymi swą przyczynę w materii fizycznej, np. chcąc stosować einsteinowską ideę geometryzacji, nie można włączyć pól fermionowych, więc wprowadza się supersymetrię. Ocena estetyczna teorii jest zwykle oceną „a posteriori”. Dlaczego chcemy wprowadzać kwantową grawitację? Ponieważ cenimy Einsteina i cenimy teorię kwantową, chcemy je obie połączyć, a to staje się motorem dalszego rozwoju teorii fizycznych. Matematyka nie jest dla mnie „estetyczna”, jest to zbyt pompatyczne słowo, jest po prostu czymś bardzo przydatnym do wyprowadzania nowych wniosków, twierdzeń naukowych.
Jaka
jest relacja między matematyką a fizyką? Matematyka ma znacznie większy zakres
badań niż jest on stosowany w fizyce, więc wybieramy z niego to, co jest nam
potrzebne. Twierdzenie, że każda piękna struktura matematyczna ma odnośnik w
przyrodzie, a przyroda jest piękna, jest skrajnym punktem widzenia. Czysta
estetyka na pewno nie wystarczy, by nastąpił postęp w fizyce teoretycznej,
trzeba patrzeć na logikę teorii fizycznych i wnioski z doświadczeń.
Helena Saniewska, pisarka — Na sali jest wielu humanistów, artystów, poetów. Chciałbym zatem w ich imieniu zadać pytania, które są na granicy fizyki, metafizyki, zdrowego rozsądku i bzdury. Chciałbym się m.in. dowiedzieć, czy:
· w praktyce została sprawdzona teoria względności, która udowodniła, że Einstein ma rację, a zdrowy rozsądek jest w błędzie. Newton zobrazował świat na codziennych doświadczeniach, dlatego w teorię einsteinowską wielu osobom trudno jest uwierzyć. Jak nieprofesjonalista może odróżnić w fizyce bzdurę od prawdy?
·
istnieją dwa kierunki czasu: przeszłość i przyszłość.
Czy naprawdę można podróżować tak samo w czasie, jak i w przestrzeni?
·
Słyszałam o teorii światów równoległych (teoria wielu
światów). Czy te teorie uznane są za prawdziwe?
Prof. Lukierski — Doświadczenie Alberta Michelsona[11] z USA udowodniło, że prędkość światła wyliczona po orbicie zamkniętej, jest stała (doświadczenie przeprowadzone zostało na orbicie ziemskiej). Była to prawidłowość sprzeczna z teorią klasyczną i wydawała się dość dziwna. W 1907 r. Michelson dostał jednak za to odkrycie Nagrodę Nobla. Struktury czasoprzestrzeni i kinematyka tak się modyfikują, że stała prędkość światła jest „wbudowana” w tę teorię. Dodawanie prędkości cząstek elementarnych również nie jest klasyczne, nie daje odpowiednika równości, że 1+1=2, lecz następuje tu pewna kontproponuje nową regułę dodawania. Dla przykładu gdy c jest prędkością światła, to relatywistyczne dodawanie prędkości prowadzi do równości c=c+c. Jest to składanie prędkości, które jest zgodne z tzw. relatywistyczną kinematyką i potwierdzone zostało w sposób bezsprzeczny. Zdrowy rozsądek bywa tutaj niewystarczający, gdyż w nauce „na chłopski rozum” wiele nie wyjaśnimy.
Jeżeli
chodzi o wnioski z ogólnej teorii względności, dzięki którym na pozór możliwy
jest powrót do przeszłości, to jednak okazuje się, że nie można tego udowodnić
w sposób ścisły. Problem polega na tym, że tzw. paradoks bliźniąt jest
dowodzony
w ramach specjalnej teorii względności, natomiast ścisły dowód wymaga
stosowania ogólnej teorii względności.
Ostatnie
pytanie to kwestia czy istnieją równoległe światy. Chcąc opisać wszechświat w
sposób kwantowy, odchodzimy od koncepcji jedynego świata klasycznego.
W szczególności w teorii kwantowej grawitacji istnieje mnogość wirtualnych
Wszechświatów. Nie ma jednak obecnie sposobu na potwierdzenie eksperymentalne
tej konstrukcji teoretycznej. Można jednak sobie wyobrazić, że z rachunków
wynikną pewne poprawki, np. do obserwacji astrofizycznych, które są zależne od
istnienia wirtualnych światów równoległych, i że zostaną one potwierdzone
pośrednio w doświadczeniu.
Dr
hab. prof. nadzw. Ludwik Turko, fizyk — Skoncentruję się na społecznej pozycji
fizyki we współczesnym świecie, a w szczególności na fizyce cząstek
elementarnych. Prof. Lukierski słusznie podkreślił, że ostateczną ich
weryfikacją są doświadczenia. Gdy teoria pola nie miała jeszcze swego
potwierdzenia w eksperymentach, wszystkie dalsze teorie, na niej się
opierające, były właściwie czystymi spekulacjami. Później jednak zostały
rozbudowane dalsze doświadczenia, które ją i je potwierdzały. Jednak
współczesny eksperyment w dziedzinie fizyki wysokich energii, jaką jest fizyka
cząstek elementarnych, jest potwornie kosztownym przedsięwzięciem. Szacuje się,
że budowa akceleratora
z prawdziwego zdarzenia, może wynieść ok. 2 mld $. Drugie tyle kosztuje
wykonywanie przy jego pomocy sensownych eksperymentów. Nic dziwnego, że tylko
nieliczne kraje na świecie, mogą sobie pozwolić na takie eksperymenty.
Prof. Lukierski — Kilka lat temu w Europejskim Centrum Fizyki Wysokich Energii CERN rozpoczęto budowę nowego, wielkiego akceleratora cząstek elementarnych, nazwanego w skrócie LHC (Large Hadron Collider). Pierwsze doświadczenia zostaną przeprowadzone zapewne w r. 2005. Spośród wszystkich zatwierdzonych do realizacji projektów doświadczeń, LHC jest najważniejszym z tych, które pozwolą w laboratorium ziemskim na wniknięcie w istotę struktury Modelu Standardowego. Umożliwi to również odkrycie nieznanych dotychczas aspektów świata cząstek elementarnych.
W ciągu ostatnich dziesięciu lat teoria cząstek elementarnych ma coraz ściślejszy związek z astrofizyką ze względu na to, że Ziemia nigdy nie da nam takich laboratoryjnych możliwości, jaką może zaoferować nam przestrzeń kosmiczna, intergalaktyczna. Można znaleźć tam takie energie, których nigdy nie uzyskamy na naszej planecie. To w tym największym laboratorium fizyki teoretycznej nastąpił kiedyś Wielki Wybuch, który przyczynił się do stworzenia wszechświata.
Prof. dr hab. Jerzy Czerwonko. Politechnika Wr. — Swoistym fenomenem jest
wydawanie pieniędzy na dziedziny, które są czysto spekulatywne.
Najpotężniejszym impulsem do prognozowania teorii cząstek elementarnych był
Projekt Manhattan[12].
W latach 30. uświadomiono sobie, że doświadczenia w fizyce jądrowej, mogą
służyć do skonstruowania broni atomowej, która może być użyta podczas wojny.
Rozpoczęła się wówczas między państwami ogromna rywalizacja, przeznaczono na
nowe odkrycia, w tej dziedzinie, olbrzymie pieniądze. Na tym się jednak nie
skończyło. Aby móc bowiem przeprowadzać odpowiednio skomplikowane symulacje
matematyczne i badania materiałowe, zatrudniono całą masę fizyków oraz
skonstruowano komputery.
Człowiek, w życiu codziennym, ma niewielką korzyść z
odkrycia kolejnej cząstki elementarnej. Największe znaczenie mają dla niego
osiągnięcia w dziedzinie fizyki ciała stałego, poczynając od zegarków
elektronicznych, a kończąc na komputerach, światłowodach itd.
Prof. Lukierski — Dyskusje o ważności teorii oddziaływań
fundamentalnych oraz teorii ciała stałego przypomina dyskusję o względnej
ważności Świąt Wielkanocnych i świąt Bożego Narodzenia. Oba kierunki badań są
moim zdaniem bardzo potrzebne i złożyły się na sławę fizyki w XX wieku. Pozwól,
że na koniec dodam, iż w 70. i 80. latach także konkurencja między Wschodem a
Zachodem stymulowała wydawanie coraz większych pieniędzy. Obecnie z kolei
większe dotacje idą w kierunku mikrobiologii niż fizyki.
Prof. dr hab. Witold Karwowski,
fizyk–teoretyk — Moim zdaniem nowa
bomba wybucha właśnie teraz, a jest nią komputeryzacja, czyli infostrada,
lasery
i światłowody. Wszystko to połączyło się w funkcjonalną całość i działa dzięki
podstawowym odkryciom fizycznym, które nie dotyczą teorii cząstek
elementarnych. Kto wie, czy „bomba komputeryzacyjna” nie okaże się bardziej
destrukcyjna od bomby atomowej.
Prof. dr hab. Andrzej Elżanowski, U.Wr. — Należę do pokolenia, które
wychowało się na filozofii Poppera[13]. Falsyfikacjonizm[14]
jest główną siłą napędową krytyki
teorii ewolucji, bowiem twierdzi się, że występuje mniemany brak falsyfikacji
tej teorii. Fizyka była zawsze modelem dla filozofii nauki. Jak wygląda
falsyfikacjonizm z punktu widzenia fizyki teoretycznej?
Prof. Lukierski — Zmiany w teorii (np. przejście od teorii
klasycznej do kwantowej) i zmiana paradygmatu mogą wydawać się drastyczne, lecz
są zweryfikowane doświadczalnie. Ja staram się rzeczy przedstawiać tak, aby
następne kroki w rozwoju fizyki były konsekwencją poprzednich. Wrażenie może
być różne, ale przy pełnym zrozumieniu kontekstu i zakresu zastosowalności, pojmujemy
w końcu poznawcze korelacje między teoriami. A odnośnie weryfikalności
koncepcji teoretycznych w fizyce, to w zasadzie każda taka koncepcja z
założenia powinna być choćby pośrednio weryfikowana. Należy także podkreślić,
że fizyka nie jest nauką konserwatywną i istnieje zapotrzebowanie na promocję
nowych, nawet rewolucyjnych wyników, co czasami jest niebezpieczne nawet dla
fizyki doświadczalnej. W 1996 r. były np. przeprowadzone doświadczenia, które
wykazały, że jakoby kwarki mają strukturę. Okazało się jednak, że były one źle
zinterpretowane, a tym samym nieprawdziwe. Istnieje duża potrzeba uzyskania
wybitnego wyniku, która prowadzi do publikacji rezultatów w fizyce
doświadczalnej nie do końca sprawdzonych, a w fizyce teoretycznej do zupełnie
niesprawdzalnych.
Dr Kornel Morawiecki, fizyk–teoretyk — Rozumiem Poppera w zupełnie inny sposób. On wcale nie mówi, że nie można czegoś potwierdzić, tylko że nie można czegoś ostatecznie udowodnić, bo tylko można to zrobić w określonym czasie. To jest ta duża różnica. Nie ma eksperymentów, które potwierdzają w całości nasze teorie. Są natomiast takie, które pokazują, że rozumienie danego zjawiska w danych warunkach, jest właściwe. Jeżeli chcemy posunąć się dalej, i udowodnić, że we wszystkich warunkach można dane zjawisko potwierdzić, wówczas pojawia się Popper. Sądzę, że biolodzy podobnie go odbierają. Nie mogą istnieć potwierdzenia zjawisk we wszystkich warunkach.
Teorie
Newtona są niefalsyfikowane. Obowiązują one bowiem w określonym zakresie i
warunkach, np. kiedy pada deszcz, to dane prawo działa, ale gdy świeci słońce,
już nie obowiązuje.
Prof.
Lukierski — Podzielam w pełni ten punkt widzenia. Nie ma w fizyce wyniku
ostatecznego, który byłby wynikiem absolutnym. O platonizm w podejściu do
konstruktów fizyki teoretycznej jestem w tej dyskusji posądzany dlatego, że nie
podkreślam, iż dane zjawisko występuje tylko w pewnym zakresie stosowalności,
np. jeśli nawet mówię o Teorii Wszystkiego, to powinienem podkreślić, że
obowiązuje ona na danym etapie naszej wiedzy. Na pewno bowiem się okaże, że w
przyszłości będzie można coś do niej dodać, zmodyfikować. Nie należy mówić o
modelach świata w fizyce w sensie platońskim, tylko zaznaczać, że chociaż
aktualnie jest on słuszny, niefalsyfikowany, może rozwijać się dalej. To jest
tak jak byśmy byli na zboczu góry, na którą możemy wspinać się coraz wyżej,
lecz szczyty są we mgle.
Prof. dr hab. Andrzej Kisielewicz,
logik i matematyk — Einstein stwierdził
w pewnym programie telewizyjnym, że nie skończył wszystkiego, co zaczął,
ponieważ nie ma „dobrej matematyki” i trzeba czekać aż się ona rozwinie. Może
nie chodziło mu o jej zupełny brak, ale czy jest takie poczucie w fizyce, że do
pewnych rzeczy brakuje jeszcze odpowiedniej matematyki? Ja osobiście nie mam co
do tego specjalnego przekonania, ponieważ w matematyce mnóstwo rzeczy się
rozwija, np. analiza harmoniczna. Aby bowiem zrozumieć, co się dzieje w niej w
tej chwili, trzeba co najmniej pięć lat studiować matematykę. Weszła ona, w
niektórych dziedzinach rozwoju, na taki poziom, że samo jej poznanie zajmuje
wiele lat, a wtedy nie ma czasu na zajęcie się fizyką. Czy czasem nie jest to
przekroczenie jakiegoś progu stosowalności?
Wypowiadano
kiedyś opinię, że „ziemia jest kulą.”. To też było teoretyczne twierdzenie,
bowiem nikt tego nie mógł sprawdzić, a jednak ktoś tą prawidłowość wymyślił.
Znaczenie tego zdania było takie, że jak oddalimy się dostatecznie daleko od
Ziemi, to się zobaczy kulę, co zostało potwierdzone w praktyce dopiero w XX
wieku.
Z kolei atom jest jeszcze obserwowalny bezpośrednio pod mikroskopem, ale po
elektronach można zaobserwować tylko ślady. To jest cały dowód na ich
istnienie. Co zatem ma znaczyć takie zdanie, że materia składa się z kwarków?
Czy to jest stwierdzenie metafizyczne? Czy tylko przypuszcza się, że istnieją
one jako cząstki, które przy odpowiednim powiększeniu mogłyby być zauważone? Co
oznacza słowo „supersymetria”? Nie wiem w jakim sensie symetria tu występuje i
jakie jest znaczenie przedrostka super.
Prof.
Lukierski — Zacznę może od pojęcia supersymetrii, która jest na razie
konstrukcją matematyczną. Powiedziałem, że wprowadzamy przestrzeń
i superprzestrzeń. W przestrzeni mamy znane nam standardowe współrzędne,
opisujące przestrzeń trójwymiarową. Przykładem symetrii są obroty trójwymiarowe.
W superprzestrzeni są dwa rodzaje współrzędnych: współrzędne Grassmanowskie
i standardowe. Jeżeli jest jakieś ogólne przekształcenie liniowe, które miesza
ze sobą te wszystkim znane współrzędne z grassmanowskimi, to mamy ogólną grupę
liniową na superprzestrzeni. Ona tworzy podstawową supergrupę. Jeżeli istnieje
superprzestrzeń, to istnienie fermionów fizycznych skłania nas do wprowadzania
dodatkowych przekształceń gdy chcemy przekształcać przez transfirmacje symetrii
bozony w fermiony i w ten sposób rozszerza się pojęcie symetrii. To jest
konstrukcja teoretyczna, która czeka na doświadczalne potwierdzenie.
Porównywanie
opinii na temat istnienia kwarków i dawniejszych domysłów
o kształcie Ziemi można skomentować następująco. Ziemia jest, jak to się mówi,
makroskopowa, więc możemy od niej daleko odlecieć i stwierdzić jej kulistość
bezpośrednio wzrokiem. Jeżeli mówię, że materia składa się z kwarków, oznacza
to, że przy pomocy mikroskopów wysokoenergetycznych, czyli akceleratorów,
możemy po prostu zobaczyć jej kwarkową strukturę. Fizyk nawet nie dodaje tego,
że na danym etapie rozumienia struktury mikroświata, materia składa się z
kwarków. One nie są abstraktem i matematycznie można pokazać, że ich istnienie
wyjaśnia pewne obserwacje fizyczne i pośrednio udowodnić, że takie obiekty
istnieją.
Należy
dodać, że kwarki mają jedną właściwość trudną do zrozumienia,
a mianowicie siła przyciągania między nimi jest tym większa, im większa jest
ich odległość od siebie. Nigdy nie możemy układu dwóch kwarków rozerwać, jakby
łączyła je jakaś sprężyna (tzw. uwięzione kwarki). Nie mogą zatem kwarki
istnieć oddzielnie, jako cząstki swobodne, jak np. protony.
Jerzy
[…] — Sądzę, że nawet fizyka einsteinowska, w momencie powstawania, była
traktowana jako nauka teoretyczna. Tymczasem w ciągu następnych lat,
przerodziła się ona, w sposób nagły i nieoczekiwany, w dziedzinę wiedzy, której
wyniki badań wykorzystuje się również w praktyce, np. w postaci projektu
Manhattan i bomb atomowych. Jest to namacalny dowód na to, co mogą i potrafią
stworzyć fizycy. Czy dalsze etapy rozwoju fizyki teoretycznej mogą nam
zaowocować w równie ciekawy sposób, jak to się stało w 1945 r.? Czy baczne
obserwowanie makro i mikrokosmosu nie sprawi, że obudzimy się na początku XXI
wieku z dylematem o większej skali od problemu bomby atomowej z 1945 r.? Czy
obecna wiedza o mikroświecie nie jest już groźna dla świata makro?
Prof.
Lukierski – Wybuch jądrowy jest związany z
reakcjami, w których masa spoczynkowa zamienia się na energię. Czy np. z
modelu kwarkowego wynika reakcja,
w której też następuje duży defekt masy i duże ilości energii są wyzwalane?
Otóż wydaje się, że nie ma możliwości konstrukcji bomby kwarkowej w warunkach
ziemskich. W kosmosie są natomiast obserwowane efekty o wyjątkowo dużej energii
i wiemy, że tak plazma gluonowo–kwarkowa, jak i wybuchy typu „bomba kwarkowa”,
są realizowane w przyrodzie. Przykładem mogą być olbrzymie rozbłyski, które się
nazywają gamma rozbłyskami
i nadchodzą z bardzo dużych odległości i z ogromną intensywnością. Eksplozje promieniowania gamma we
wszechświecie zdarzają się dość często. Są to jednak zjawiska jeszcze nie
wyjaśnione w pełni przez fizykę teoretyczną i astrofizykę.
Prof. dr hab. Adam Jezierski, chemik — Pierwszy podręcznik chemii powstał ok. 300 lat temu napisał chemik Robert Boyle (1626–1691) i dał jej tytuł Chemikus Scepticum, czyli Sceptyczny chemik. Przeciwstawił w niej skostniałego fizyka, światłemu chemikowi. Czytając książki fizyków-teoretyków, stwierdzam, że teraz jest zupełnie odwrotnie. Przerażony jestem tym, że wybitni chemicy, popełniają w swoich książkach kardynalne błędy chemiczne, choć sądzę jednak, że gdybym znał i rozumiał fizykę teoretyczną, też bym się na nie natknął.
Czy
na poziomie niższym od poziomu kwantowego rozważamy sprawy determinizmu,
strzałki czasu? Mam tu na myśli pewną nieodwracalność i nierównowagowość
procesów w skali subkwantowej.
Prof.
Lukierski — Najpierw skomentuję swą uwagę na temat relacji chemia– fizyka.
Ponieważ nie ma rektora Ziółkowskiego, wybitnego chemika i mojego kolegi,
pozwolę sobie powiedzieć, że dla fizyka chemia jest stosowaną mechaniką
kwantową. Wydaje mi się, że tu jest ta relacja dość klarowna: chemia jako nauka
teoretyczna wyrosła
z fizyki.
A
teraz na temat pojęcia czasu w skali subkwantowej. Tam się dzieją gorsze
rzeczy. Czas przestaje być liczbą dla obszarów subkwantowych, co oznacza, że
jeśli chcemy opisać efekty kwantowej grawitacji, musimy traktować czas jako
wielkość kwantową. Wtedy mamy już do czynienia z opisem kwantowym czasu i
pojęcia klasyczne, jak np. determinizm, należy stosować inaczej. Istnieją tak
zwane grupy kwantowe, które opisują symetrie mikroświata kwantowego. Na
subkwantowych poziomach obowiązuje inny paradygmat. To jest nieznana domena,
którą poznamy może bliżej w XXI wieku. Mamy obszar klasyczny, kwantowy i
subkwantowy. Nad tym ostatnim, subkwantowym zakresem zjawisk pracują niektórzy
z nas we Wrocławiu i nie ma tu jasnych odpowiedzi.
Prof. dr hab. Janusz Drodżyński —
Jako chemik otarłem się trochę o problem fizyki kwantowej. Chciałbym wszystkim
tym, którzy nie mają wiele wspólnego z fizyką, przybliżyć jej wygląd. Nie
śmiałbym nikogo tu krytykować, dlatego pozwolę sobie tu zacytować jednego z
fizyków. Jego wypowiedź pozostawię bez komentarza. W pewnej książce pisze:
„Żyję w Nowym Jorku i za każdym razem kiedy jadę metrem, przypominają mi się te
dziwne przekształcenia przestrzeni i czasu. Gdy stoję na peronie i nie mam nic
do roboty, oprócz czekania na pociąg, puszczam wodze fantazji i zastanawiam
się, co by się stało, gdyby prędkość światła wynosiła zaledwie 50 km/h (czyli
tyle, ile prędkość pociągu
w metrze). Na stację wjeżdżałby wówczas pociąg ściśnięty jak akordeon. Byłaby
to jadąca bryła metalu o szerokości 1/2 metra. Wszyscy pasażerowie byliby
ciency jak papier, praktycznie zamrożeni w czasie i wyglądaliby jak nieruchome
figury. Zatrzymujące się na stacji metro, rozszerzyłoby się gwałtownie i bryła
metalu stopniowo wypełniłaby stację. Jakkolwiek absurdalne może nam się wydawać
to doświadczenie, pasażerowie pociągu pozostawaliby w zupełnej nieświadomości.
Ich ciała, podobnie jak cała przestrzeń, skróciłyby się w kierunku ruchu
pociągu i wszystko wyglądałoby normalnie. Wszyscy zachowywaliby się tak jak
zwykle. Gdyby pociąg w końcu się zatrzymał, zupełnie nie zdawaliby sobie sprawy
z tego, że z punktu widzenia kogoś na peronie, ich środek lokomocji rozszerzył
się i wypełnił całą stację. Pasażerowie wychodzący z pociągu byliby całkowicie
nieświadomi zmian opisywanych przez szczególną teorię względności”.
Inny
fizyk twierdzi, że mamy tu do czynienia z rzeczywistym spowolnieniem wszystkich
zjawisk, które widzi też zewnętrzny obserwator. Jeszcze inny snuje
przypuszczenia, że to co mierzymy, jest dla fizyka prawdą, ale nie wszystko
może tak wyglądać. Na koniec mojej wypowiedzi mam jedno pytanie. Według
najnowszych badań fizyków-teoretyków mówi się o kreacji materii z niczego. Jak
to jest możliwe?
Prof. Lukierski — Przykład z książki jest interesującą, czystą fantazją. Fizyk wyobrażał sobie tylko, co by się stało, gdybyśmy skorzystali z efektów, które stosuje się przy prędkościach ok. 300 km/s, przy prędkości 50 km/h.
Natomiast
jeśli chodzi o kreację materii z niczego, to przychodzą mi na myśl tzw. procesy
wirtualne w kwantowej teorii pola. Nie ma w nich jednak sytuacji, że coś jest
wykreowane, a nie jest anihilowane. Można jednak zauważyć, że próżnia, która
została wprowadzona bez stanów wirtualnych, nie jest fizyczna. Pokazano, że w
fizycznej próżni zachodzą kwantowe procesy wirtualne, a więc coś się dzieje,
zachodzą pewne zjawiska, które „ubierają próżnię”. Mówi się o próżni
matematycznej i próżni ubranej, fizycznej. Natomiast w opisie realnych,
niewirtualnych procesów nie zakłada się, że materia jest kreowana, byłoby to
sprzeczne z uniwersalną zasadą zachowania energii i pędu. Inny problem to
powstawanie świata w procesie Wielkiego Wybuchu, który powstał z tzw.
osobliwości pierwotnej zgodnie z zasadami kwantowej grawitacji.
Prof. dr hab. Stefan Mróz, fizyk
doświadczalny — Prof. Lukierski swobodnie rozwija skomplikowane wizje,
twierdząc, że są na nie dowody. Najpierw trzeba jednak w to wszystko uwierzyć.
To mnie wpędza w kompleksy, ale trochę się pocieszam tym, że nawet
I zasada Newtona nie jest wcale taka prosta, jak mogłoby się to wydawać. Gdy
wykładam studentom pierwszego r. mechanikę, dla porządku tłumaczę im, że ciało
na które nie działa żadna siła, porusza się ruchem jednostajnym. Nie jest to
jednak takie oczywiste, bo gdy np. włączy się silnik, to on się zatrzyma, a
mimo wszystko jest to twierdzenie fizyczne. Pocieszam się, że więcej rozumiem i
to mi poprawia samopoczucie.
Z dzisiejszych rozważań teoretycznych i eksperymentów wynika, że dawniej eksperymentatorzy znajdowali zjawiska, które później teoretycy tłumaczyli. Gdy dobrze je wyjaśnili, powstawała zawsze dobra teoria. Od niedawna sytuacja jest odwrotna — teoretycy wymyślają nowe tezy, za którymi eksperymentatorzy nie mogą nadążyć. Do tego dochodzą skomplikowane eksperymenty, aby je potwierdzić, a wyniki z nich otrzymane, będą zapewne bardzo pośrednie i niepewne.
Czy
trzeba sprawdzać wszystkie teorie, czy też może istnieje jakieś kryterium
wyboru? Ile jest tych dobrych i złych dróg? Czy dużo rodzi się pomysłów, które
później zupełnie nie potwierdzają się w doświadczeniach?
Prof. Lukierski — Fizyka teoretyczna jest o wiele tańsza od fizyki doświadczalnej, a w związku z tym jest często szybsza. W badaniach teoretycznych, które mają wyjaśnić dane doświadczalne, stosujemy zasadę zbiorowej mądrości fizyków-teoretyków. Ważne są tu kontakty i prace, które posuwają owe modele w dobrym kierunku. Widać wyraźnie, że istnieje tu pewien mechanizm samoregulujący, który odrzuca mniej pożyteczne koncepcje, a faworyzuje te przydatne dla rozwoju fizyki. Reprezentuję tutaj optymistyczny punkt widzenia. Należy jednak dodać, że propozycje teoretyczne bywają bardziej lub mniej rzetelne.
Prof. dr hab. Stefan Mróz — Problem
polega chyba na tym, że świat, który jest obszarem sprawdzania fizyki
współczesnej, trzeba najpierw zbudować. Fizycy dla potwierdzenia wielu
dzisiejszych teorii muszą dostać 10 mld $ na wybudowanie akceleatora. Czy wy w
tej chwili nie wymyślacie światów, których nie ma, a potem jeszcze namawiacie
polityków, żeby dali pieniądze na badania?
Prof.
Lukierski — Logika rozwoju koncepcji teoretycznych w fizyce istnieje
niezależnie od ilości pieniędzy, chociaż pieniądze mają zadanie tonizujące na
rozwój fizyki.
Dr
Rafał Augustyn, filolog, U Wr. — Mam wrażenie, że wszystko rozumiem, choć nie
powinienem, bo przecież nie znam się na tym. Należę do ostatniego rocznika,
który
w liceum nie miał nawet rachunku różniczkowego, za to była cała masa
trygonometrii. Mam wrażenie, że jesteśmy na poziomie pewnego uogólnienia, który
jest dostępny dla przeciętnych ludzi. Wobec tego ośmielam się zadać pytanie
historyczne. Z jednej strony słyszymy
o próbach weryfikacji różnych elementów szczególnej Teorii Względności i o
tworzeniu Teorii Wszystkiego. Z drugiej jesteśmy w sytuacji, gdy Einstein jest
już niemożliwy, ponieważ za każdym razem rozszerzy się teorie na tyle, żeby
„uratować” jego tezę i w gruncie rzeczy ta różnica między przekształcaniem, a
wymianą paradygmatu się zaciera. Czy to jest fałszywe myślenie? Zajmujemy się
dziś fizyką po Einsteinie, ale czy po nim, można znaleźć kogoś, kto byłby
kolejnym Einsteinem? Czy któryś dodatek do teorii Einsteina, jakieś przekształcenie
tej teorii, jest zmianą paradygmatu na dużą skalę?
Prof.
Lukierski — Niektórzy uważają za największe odkrycie XX wieku nie teorię
Einsteina, lecz Teorię Kwantową, dzięki której uczyniono większy skok, niżeli
przechodząc od teorii Newtona do teorii Einsteina. Istnieją cztery teorie
dynamiczne: dwie klasyczne
i dwie kwantowe. Popularnie uważa się, że to Einstein jest dominującą postacią
XX wieku. Uważam, że teoria kwantowa jest najistotniejszym osiągnięciem
naukowym dokonanym dziesięć lat po teorii względności Einsteina. Czy są jakieś
inne podobne osiągnięcia? Otóż mamy teorię klasyczną, potem kwantową, a
następnym przejściem jest skok do teorii subkwantowych. Model superstrun
próbuje opisać świat subkwantowy, ale to nie jest jeszcze rozwiązanie tego
problemu. Być może już żyje wśród nas następca Einsteina czy Heisenberga, który
zunifikuje w jedną całość teorię relatywistyczną i teorię kwantową,
i podobnie jak Einstein stanie się bohaterem kultury masowej.
Pan
X — Wśród największych autorytetów — współczesnych metodologów
i filozofów nauki — dominuje bezdyskusyjnie przekonanie, że nie ma gołych
faktów, którymi teraz zajmują się fizycy. Twierdzą oni, że mamy tu do czynienia
ze złudzeniem badaczy, którzy uważają, że wystarczy, aby byli subiektywnie
przekonani o istnieniu jakiegoś obiektywnego świata, a wtedy wystarczy go
zbadać, aby uzyskać tzw. fakty potwierdzone eksperymentalnie. Według nich
fizycy nie robią zatem nic innego, jak tylko odkrywają nowe światy, aby później
szukać na nie potwierdzenia. Twierdzą, że te gołe fakty są najpierw przez
fizyków wymyślane, a później odnajdywane w rzeczywistości i w dodatku
przedstawiane tym samym językiem, którym zostały opisane jeszcze przed ich
powstaniem.
Zapewne
dla fizyków, którzy mocno wierzą, że badają obiektywny świat, stanowi to
hipotezę mocno podejrzaną, ale czy ona jest taka doprawdy? Metodologowie
twierdzą, że wśród fizyków i innych badaczy doświadczalnych dominuje
pozytywistyczna samoświadomość metodologiczna, tzn. doświadczalnicy nie
wykroczyli jeszcze poza pozytywistyczne nazywanie tego, co robią, choć my w
teorii jesteśmy już, ku ich niezrozumieniu, dużo dalej.
Prof. Lukierski — Rzeczywiście, pozytywistyczny punkt widzenia polega na tym, że otacza nas istniejąca materia, którą się bada. Bardziej subtelny punkt widzenia uwzględnia to, że nasze kategorie językowe (teoretyczne), wprowadzają całą hierarchię modeli, ale nie zmieniają one statusu materii obserwowanej jako tej ostatniej instacji prawdziwości teorii. Sam proces poznawczy jest oczywiście uzależniony od kategorii językowych czy pojęciowych i czasami jest wskazane, by się wyzwolić od doświadczenia przy konstrukcji teorii, jako czynnika ograniczającego naszą intuicję.
Magorzata
Masterniak–Kubiak — W każdej profesji człowiek powinien kierować się
określonymi normami etycznymi. Czy fizyk-teoretyk też ma jakiś kodeks etyczny?
W przypadku eksperymentu klonowania, w pewnym momencie zaczęto się zastanawiać,
do jakiego stopnia doświadczenie się udało i jak daleko można się posunąć, aby
nie sprzeniewierzyć się ogólnoludzkim wartościom. Jakie są granice
eksperymentu? Czy zostały wytyczone normy w fizyce, a może fizyk ma do
czynienia z innymi normami?
Prof. Lukierski — Przez wyrażenie „normy etyczne” rozumiem etyczną ocenę konsekwencji badań. Wydaje mi się, że dopiero w konkretnych okolicznościach można odpowiedzieć na pytanie, czy jakieś aspekty konkretnego odkrycia są negatywne. Jako naukowiec nie znalazłem się podczas badań w takiej sytuacji, z której musiałbym się zmierzyć z tego typu problemem. Z drugiej strony, problem wykorzystania odkrycia nie zawsze jest problemem odkrywcy. Wiedza jest moim zdaniem jednoznacznie pozytywną wartością w rozwoju ludzkości i zatajanie jej jest krótkowzroczne. Z drugiej strony prawdą jest, że inni ludzie, z poza nauki, mogą później wyniki naukowe w ten czy inny sposób spożytkować.
Naukowcy
nie powinni być dodatkowo obarczani ciężarem zastanawiania się nad konsekwencją
swych działań. Ich rolą jest skoncentrowanie się na poznawaniu rzeczywistości,
przyrody. Możemy komentować wyniki badań, ale nie możemy przez swe decyzje ich
powstrzymywać, gdyż po dłuższym czasie okaże się, iż ich zaniechanie było
krokiem nieefektywnym. Dzisiaj jednak pod większą presją ocen, o których Pani
mówi, jest biologia i genetyka niż fizyka.
Dr hab. prof. nadzw. Jerzy Czyżewski, fizyk doświadczalny — Ciągle wierzę, że fizyka jest nauką przyrodniczą, a w jej procesie poznawczym niezbędne są metody eksperymentalne. Fizyka teoretyczna ciągle brnie do przodu, choć wielu eksperymentów nie da się już wykonać. Aby bowiem zaobserwować pewne zjawiska, należałoby użyć do tego akceleratora o rozmiarze układu planetarnego. To jest zdecydowanie niemożliwe.
Jestem
przekonany, że badanie struktury materii jest najbardziej fundamentalnym
i fascynującym problemem dla fizyka. W tej chwili panuje kryzys, bo nie
zbudujemy akceleratora, który jest potrzebny do przeprowadzenia
eksperymentalnych badań, potwierdzających słuszność dzisiejszych założeń
teoretycznych. Z drugiej strony jest też inne podejście do wysokiej energii, a
mianowicie koncentracja gęstości energii w generatorach termojądrowych.
Eksperyment polega na tym, że lasery wielkiej mocy są koncentrowane
w jednym punkcie, w którym wytwarza się ogromna gęstość energii. Czy istnieje
zatem nowa koncepcja przyrządów?
Prof.
Lukierski — Zgadzam się, że eksperymenty dotyczące dzisiejszych badań
w akceleratorach mają swoje granice. Stąd coraz większe zainteresowanie
astrofizyką, która posługuje się „laboratorium kosmicznym”. Kierunek badań o
którym Pan mówi — do którego należą badania plazmy gluonowo–kwarkowej — ma
przed sobą przyszłość. Wymaga on na pewno nowych przyrządów i metod
doświadczalnych.
Wiesław Saniewski, reżyser, scenarzysta, producent filmowy — Chciałbym zadać pytanie z pogranicza fizyki i filozofii. Paul Davies napisał książkę Bóg i nowa fizyka (1996), w której stwierdził, że wielu fizyków i astrofizyków nawraca się i zaczyna mocniej niż kiedykolwiek wierzyć w Stworzyciela. Dotyczy to zwłaszcza starszych naukowców, którzy przez wiele lat zajmowali się fizyką teoretyczną. Fizycy zadają sobie ciągle pytanie, skąd się wziął wszechświat i skąd się wzięli oni sami, ale czy nie jest to pytanie również o Boga? Czy cząstka zwana neutrinem[15], przenikająca do każdej materii nie jest dowodem naukowym na istnienie ducha?
Prof. Lukierski — Nauka implikuje w różny sposób poglądy filozoficzne,
a w szczególności podejście do religii. W statystykach dotyczących wiary w
Boga, my, fizycy, zajmujemy środkową pozycję. W czołówce wierzących naukowców
plasują się matematycy, którzy „pracują w abstrakcjach”, a fizycy są na dalszym
miejscu. Wśród biologów natomiast jest mniej osób prowadzących badania naukowe
i wierzących w Boską ingerencję w ten świat. Może dlatego, że są oni bliżsi
tajemnicy życia od innych.
Neutrino to rzeczywiście
cząsteczka bardziej przenikalna od innych, lecz pojęcie ducha można dopasować
do niej kolokwialnie. Chociaż używamy w fizyce cząstek elementarnych pojęcia
„stanów duchowych” (tzw. „ghost states”), to jednak nie mają one nic wspólnego
z metafizyką. Przenikanie neutrina
przez inne ciała możliwe jest poprzez specyfikę ich oddziaływań i masę
spoczynkową bardzo bliską zeru.
Zapewniam, wszystko jest w zgodzie z niemetafizyczną fizyką.
Wiesław Saniewski — Jeżeli symetria i estetyka w fizyce są tak ważne, to czy
wobec tego początku wszechświata nie można się doszukiwać także w jego końcu.
Czy początkiem wszechświata nie był koniec innego wszechświata? Czy wszechświat
się rozszerza po to, aby w końcu przeistoczyć się w czarną dziurę?
Prof.
Lukierski — Jeżeli chodzi o wszechświat, to na razie wiemy, że jesteśmy
w fazie jego rozszerzania się. Stała Hubble’a[16],
która jest wymierzona dość dokładnie, udowadnia tą tezę. Aby określić, czy
wszechświat przejdzie przez jakieś kulminacje, musimy znać średnią gęstość jego
masy. Z kolei materia, którą obserwujemy przez teleskopy, jest tylko częścią
materii, która istnieje we wszechświecie. Jest jeszcze bowiem tzw. ciemna
materia, ciemna energia, które są bardzo interesującym zjawiskiem i możliwe, że
supersymetrie je właśnie reprezentują. Szacuje się, że do 90% z tego, co
obserwujemy jest tą ciemną materią czy ciemną energią, zatem nie możemy łatwo
dokonać obliczenia średniej masy wszechświata. Krótkimi słowy, na jasnowidzenie
dotyczące przyszłego życiorysu wszechświata jest za wcześnie.
Prof. dr hab. Tadeusz Zipser — Mam w domu cztery koty, wszystkie potrafią otwierać drzwi. Część nauczyła się tego, obserwując ludzi, inne podpatrując siebie nawzajem. Jednak żaden z tych kotów nie potrafi zamknąć drzwi, chociaż były sytuacje, w których by im się ta umiejętność też przydała. Czy nie jest czasem tak, że my, podobnie do kotów, również potrafimy dokładnie obserwować, ale nie potrafimy pewnych rzeczy zrozumieć. Kot nie rozumie tego, że nie rozumie czegoś, my z kolei nie możemy zrozumieć, dlaczego nie możemy pewnych rzeczy zrozumieć. Może ten etap, do którego doszliśmy teraz w fizyce, po wszystkich teoriach klasycznych i kwantowych, jest na granicy naszego pojmowania.
Prof.
Lukierski — Uważam, że obserwujemy ciągły postęp w rozwoju
i rozumieniu fizyki, więc dlaczego ten proces miałby się zatrzymać?. Otóż pod
koniec XIX wieku odkryto elektron i widziano atomy. Następnie w pierwszym
dwudziestoleciu zauważono, że atom się składa z jądra i elektronów oraz wykryto
pierwszą składową jądra, która się nazywa proton. Następnie wykryto neutron i
inne cząstki, które nazywają się mezonami. Atomowi lub cząsteczce kształt
nadają ich najbardziej zewnętrzne elektrony czy, bardziej precyzyjnie mówiąc,
chmura elektronowa, której gęstość określa prawdopodobieństwo tego, że elektron
znajduje się w danym miejscu. Kształt tej chmury może być bardzo skomplikowany,
a jego poznanie ma olbrzymie znaczenie dla zrozumienia własności chemicznych i
fizycznych różnych substancji. Ostatnio fizykom udało się po raz pierwszy
zobaczyć atom na własne oczy. Nie kręcimy się zatem w kółko, tylko w szybkim
tempie posuwamy do przodu. Jako naukowiec–przyrodnik nie mam i nie powinienem
mieć jednoznacznej odpowiedzi na pytanie, czy natura może być do końca
poznawalna. Sądzę, że jest to, kwestia założenia metafizycznego. Jestem jednak
zdania, że poznanie idzie i będzie szło cały czas do przodu.
Pan
Y, fizyk–teoretyk — Bardzo mnie martwi ten brak kontaktu teorii
z eksperymentem, bo przesuwa się ona do tego obszaru, gdzie coraz mniejsze są
szanse weryfikacji jej hipotez fizycznych. Wyobraźmy sobie, że jakieś teorie by
się „rozeszły” i powstałyby dwie lub trzy równoważne sobie teorie, bez
potwierdzenia eksperymentalnego. Tłumaczyłyby nam rzeczywistość, ale tą
bardziej matematyczną (na papierze) niż fizyczną. Nie miałyby potwierdzenia, w
związku z czym wszystkie są równie dobre i równie złe.
Prof. Lukierski — Nie zgadzam ze stwierdzeniem, że mogłyby istnieć równoważne sobie teorie przez bardzo długi okres czasu, gdyż po pewnym okresie następuje naturalny proces selekcji. Rozwój nauki przebiega bowiem na zasadzie „pnia”, na którym gałęzie odchodzą na bok, a pień idzie do góry.
Pan
Y — Warto tu przypomnieć sobie teorię eteru. Gdyby nie eksperyment, który
zweryfikował, że to jest błędny kierunek, do dziś byśmy się może tym eterem
zajmowali. To przecież również eksperyment spowodował wybuch nowej fizyki
kwantowej. Przestało się wszystko zmieniać w sposób ciągły, a zaczęło się
zmieniać w sposób kwantowy. Czy my zatem na pewno nie jesteśmy w takiej
sytuacji, w której nie mamy już możliwości weryfikacji? Czy był tylko jeden kot
(Einstein), czy też może kolejny kot pokaże nam jak zamknąć drzwi od fizyki
klasycznej i kwantowej i otworzy te nowe.
Prof.
Lukierski — Kierunek główny rozwoju koncepcji w fizyce jest zweryfikowany
teoretyczną intuicją najlepszych fizyków na świecie. Budowany jest na zasadzie
wyboru koncepcji, która wyjaśnia najwięcej. Oczywiście, nieraz po zrobieniu
kroków do przodu, robi się fałszywy krok w bok lub do tyłu. Weryfikacja może
jest coraz trudniejsza, lecz wciąż potrzebna i możliwa.
Dr
Kornel Morawiecki, fizyk–teoretyk — Świat po Einsteinie strasznie się rozrósł,
wydaje się nawet, że ponad naszą miarę i nasze wyobrażenie. Świat przed
Einsteinem,
a zatem Newtonowski, był do ogarnięcia. Bóg był poza nami, wielki, zrozumiały i
przyjazny jako nasz Ojciec i Stworzyciel, a Świat był ludzki. Wszystko z czym
mamy obecnie do czynienia jest dla nas zupełnie niepojęte. Świat stał się
nadludzki. Zapewne to, co wiemy, jest tylko małym fragmentem, bo ogrom tego, co
pozostaje nam do zbadania jest nie do pojęcia. Kiedy 30 lat temu rozmawialiśmy
w czasie spaceru na wybrzeżu, powiedziałem do Ciebie: „Słuchaj, jesteś
zdolniejszy ode mnie, zrób coś wielkiego w tej fizyce”. Ty zaś z góry na mnie patrząc
odpowiedziałeś „Kornel, to nie jest łatwe”
Prof. Lukierski — Pewnie udało mi się w fizyce coś
dokonać, jednak na pewno nie są to odkrycia, które wpisze się w historie fizyki
XX wieku. Teraz już jestem
z tym stanem rzeczy pogodzony. Natomiast relacja między fizyką a religią zależy
moim zdaniem od naszego subiektywnego świata. Dla Ciebie pewnie domena religii
jest istotniejsza od nauki. Rozumiem to, gdyż religia jest dla wielu ludzi
czymś ważniejszym, bliższym
i stabilniejszym aniżeli nauka.
Pan Zagórski, dziennikarz — W wielu ważnych ośrodkach (np. wojskowych) są badane, dziś już bez tajemnicy, obszary zjawisk myśli ludzkiej i ludzkiego umysłu. Kilka lat temu w programie telewizjnym na Discovery mogliśmy usłyszeć wystąpienie Billa Clintona, który publicznie przepraszał bataliony amerykańskie za to, że w latach 60. stosowano na nich specjalne programy psychotroniczne. Ściśle wiązały się one z fizyką, a dokładniej ze stymulacją umysłu. Czy jest jakaś korespondencja, jakiś przepływ informacji między światem nauki akademickiej, a tymi ośrodkami? Niepokoi mnie niechęć do tego typu badań. Czy można podejść do tych spraw poważniej?
Prof. Lukierski — Nie mamy przepływu informacji z tego typu instytucji, bo nas do takich eksperymentów nie dopuszczają. Twierdzenie, że istnieją super tajne komórki badawcze w USA czy w Rosji jest trudne do sprawdzenia, chociażby z powodu supertajności. Nie wierzę jednak, że została tam odkryta zupełnie nowa fizyka. Supertajność dotyczy raczej osiągnięć technologicznych. Jeśli chodzi o zjawiska parafizyczne, np. telekinezę, to każdy fizyk–teoretyk, który miałby wiarygodne ich potwierdzenie, od razu by się tą sprawą zajął. Naukowcy nie uciekają od tych zjawisk, a wręcz przeciwnie, wykonuje się pewne doświadczenia, tyle, że nie przynoszą one wyników, które bezdyskusyjnie mogłyby te zjawiska potwierdzić.
Wydaje mi się, że jest możliwa zawsze jakaś nowa jakość fizyczna przy badaniu świadomości. Były takie pomysły jak np. piąta siła, opisana modelem łamiącym tzw. chiralne symetrie, w jakimś sensie przydatna do opisu procesów świadomości. Jest duża, mimo pozorów, otwartość na takie możliwości w środowisku fizyków.
Pan
Z — Co dzisiejsza fizyka może powiedzieć o grawitonach, czy udowodniono ich
istnienie, czy na razie są to tylko hipotezy? Dlaczego problem grawitacji,
według mojej oceny, nie jest badany fizycznie, a w niektórych krajach jest
nawet tematem tabu?
Prof. Lukierski — Istnienie fal grawitacyjnych (grawitonów) jest już udowodnione, a w sprawach związanych z grawitacją kwantową są prowadzone poważne badania i formułowane interesujące hipotezy. Nie słyszałem o „tabu”, o którym wspominasz.
Bogusław Litwiniec, reżyser, senator RP — Pozwolę sobie powiedzieć coś o inspiracji i geniuszu fizyki. Otóż byłem kiedyś wybranym jako jeden z dwudziestu kandydatów, który miał się wykazać geniuszem. Włączono mnie do stajni prof. Leopolda Infelda, który w szczycie stalinizmu, zdecydował się przejechać przez żelazną kurtynę, aby stworzyć w Polsce Szkołę Geniuszy. Infeld, który był uczniem Einsteina, kiedyś na wykładzie usłyszał pytanie: „Co zainspirowało Einsteina do wymyślenia ogólnej teorii względności, która zakwestionowała klasyczną teorię?” Zastanowił się chwilę i powiedział: „Chyba Dostojewski”.
Po dzisiejszym spotkaniu możemy śmiało stwierdzić, że stworzenie teorii względności przez Einsteina było bez wątpienia jednym z największych przełomów intelektualnych w dziejach ludzkości. Nie wynika to oczywiście z faktu, iż Einstein jako pierwszy zwrócił uwagę, że wszystko jest względne. Mówiąc słowami Richarda Feynmana: aby odkryć tak banalną prawdę filozoficzną, nie potrzeba było geniuszu Einsteina. Waga teorii względności polega na tym, że była to pierwsza teoria fizyczna, której przewidywania różniły się od naszych potocznych wyobrażeń o świecie. Opisuje ona zjawiska tak odległe od codzienności, że umysł ludzki nie może ich ogarnąć. W tym celu nieodzowny jest abstrakcyjny język matematyki (niekoniecznie zresztą wyższej).
Na tym konflikcie, pomiędzy otaczającą nas realnością doznań a rzeczywistością relatywistyczną, żerowała i żeruje po dziś dzień grupa frustratów obalających teorię względności, usiłujących niezgodność tę przekształcić w pozornie nierozwiązywalne paradoksy. Pewien znany fizyk, zresztą autor podręczników dla szkół średnich, stwierdził autorytatywnie, że teoria względności jest zbyt trudna, by mogła znaleźć się w programie szkolnym. Konflikt ten powoduje, że pomimo istnienia nieprzebranej ilości książek popularyzatorskich, olbrzymia rzesza ludzi, uważających się i uważanych za wykształconych, nie zna albo w ogóle nie rozumie teorii względności. To jest olbrzymie zadanie, stojące przed popularyzacją fizyki w społeczeństwie.
Prof. Sitek, prowadzący spotkanie — Dziękuję Państwu za dyskusję, profesorowi Lukierskiemu za poruszenie szerokiego kręgu zagadnień fizycznych i metafizycznych. Przypominam o skrzynce przy wyjściu, gdyż salon prof. Dudka jest finansowany przez nas — uczestników salonu.
[1]Renormalizacja — procedura obliczeniowa stosowana w kwantowej teorii pola (elektrodynamika kwantowa, chromodynamika kwantowa). W szczególności może być interpretowana jako sposób uwzględnienia wpływu pola kwantowej cząstki na jej własności (np. obserwowaną masę, wielkość ładunku elektrycznego itp.). Dzięki renormalizacji obliczane wielkości fizyczne mają skończone wartości.
[2]Doświadczenie Lamba — tzw. przesunięcie. Lamba (polaryzacja próżni) — nieznaczne względne przesunięcie obserwowanych poziomów energetycznych 2s1/2 i 2p1/2 w atomach wodoropodobnych, względem przewidywań kwantowo-mechanicznego równania Diraca, wyjaśnione przez W.E. Lamba na gruncie elektrodynamiki kwantowej dzięki uwzględnieniu oddziaływania elektronów z wirtualnymi fotonami i zjawisku polaryzacji próżni Jest sztandarowym efektem potwierdzającym doświadczalnie formalizm kwantowej teorii pola.
[3] Heisenberg Werner Carl (1901-1976) — wybitny niemiecki fizyk teoretyczny, profesor fizyki uniwersytetów kolejno w Lipsku, Berlinie i Getyndze, współtwórca mechaniki kwantowej, w latach 1924-25, teorii pola oraz teoretycznego wytłumaczenia zjawiska ferromagnetyzmu, autor tekstów filozoficznych i prac popularyzatorskich. W 1927 sformułował zasadę nieoznaczoności, mającą fundamentalne znaczenie dla fizyki kwantowej (Heisenberga zasada nieoznaczoności). W 1932 otrzymał Nagrodę Nobla "za stworzenie mechaniki kwantowej". Wprowadził pojęcie izospinu oraz koncepcję sił wymiany dla wyjaśnienia wiązania jądra atomowego. W czasie II wojny światowej brał udział w niemieckich pracach nad bronią jądrową, był bliski uruchomienia reaktora jądrowego.
[4] Schrödinger Erwin (1887-1961) — wybitny austriacki fizyk–teoretyk. Profesor m.in. politechniki w Stuttgarcie (od 1920) i w Zurychu (1921-1927) oraz uniwersytetów w Berlinie (1927-1933), Oxfordzie (1933-1935), Grazu (1936-1938), a także Institute for Advance Studies w Dublinie (1940-1955).
Sformułował równanie falowe opisujące nierelatywistyczną cząstkę. Był też autorem podstawowego sformułowania opartego na tzw. równaniu Schroedingera mechaniki kwantowej, za którą otrzymał w 1933 Nagrodę Nobla (obok P.A.M. Diraca).
[5]
Dirac Paul Adrien Maurice (1902-1993) — wybitny angielski
fizyk-teoretyk, współtwórca mechaniki kwantowej,
w szczególności jej ujęcia dla cząstek ze spinem 1/2, w szczególności elektronów
(równanie Diraca).
Przewidział istnienie pozytonu
i wniósł istotny wkład w rozwój elektrodynamiki
kwantowej. Był profesorem uniwersytetów
w Cambridge i Oxford oraz członkiem Royal Society. W 1933 otrzymał (wraz z E. Schrödingerem) Nagrodę Nobla za
sformułowanie i rozwój mechaniki kwantowej.
[6] Plancka stała, kwant działania, h — istnienie nowej, fundamentalnej stałej przyrody h odkrył M. Planck w 1900 r., badając zjawisko promieniowania ciała doskonale czarnego (prawo promieniowania Plancka). Wielkość h = 6,62491·10-34 [J·s], jest fundamentalną stałą fizyczną, kwantem momentu pędu (lub działania), za którego jednostkę uważa się wielkość:
[7] Rezonanse — cząstki rezonansowe o bardzo krótkim czasie życia mniejszym od 10-20s. Należą do nich hadrony (mezony lub lub bariony ), czyli stany związane kwarków oraz antykwarków. Ich rozpad następuje za pośrednictwem oddziaływań silnych.
[8] Kwarki [ang.] — cząstki elementarne, składniki protonów, neutronów i innych hadronów; są cząstkami punktowymi o spinie 1/2, liczbie barionowej 1/3 i ładunkach elektr. będących ułamkiem 1/3 lub 2/3 ładunku elementarnego e. Znanych jest obecnie 6 rodzajów (zw. zapachami) kwarków: d, s i b (o ładunku –1/3e) oraz u i c (o ładunku +2/3 e).
[9] GeV, gigaelektronowolt w skrócie GeV, jednostka energii w fizyce atomowej równa 109 elektronowoltów (eV); wykorzystywana np. do określenia wielkości energii uzyskiwanej z hamowania cząstek w wielkich akceleratorach, opisu wielkości energii kosmicznego promieniowania pierwotnego.
[10] Rutherford Ernest sir, baron Rutherford of Nelson (1871-1937) — brytyjski fizyk urodzony w Nowej Zelandii. Opracował wspólnie z F. Soddym planetarny model atomu oraz teorię rozpadu promieniotwórczego. W 1908 r. otrzymał Nagrodę Nobla w dziedzinie chemii.
[11] Michelson Albert Abraham (1852-1931) — fizyk amerykański polskiego pochodzenia. Za konstrukcję precyzyjnych przyrządów optycznych (Michelsona interferometr), badanie widm promieniowania świetlnego (światło) i pomiar prędkości światła jako niezależny od ruchu względem układu otrzymał w 1907 Nagrodę Nobla.
[12]
Manhattan Project — kryptonim amerykańskiego programu badań prowadzonego
w latach 1942-1947, służącego do uzyskania
broni jądrowej w czasie II wojny światowej. Na jego czele stał generał
Leslie R. Groves, w ramach programu pracowali najwybitniejsi fizycy znajdujący
się w USA. Wśród nich wielu uciekinierów z Europy, głównie z Niemiec, m.in.
R.J.Oppenheimer, A.H. Compton, N.Bohr, A. Einstein,
J. Franck, E. Fermi, L.W. Alvarez, E.O. Lawrence.
[13]
Popper Karl Raimund (1902-1995) — austriacki filozof, logik.
Od 1949 profesor uniwersytetu w Londynie. Centralnym problemem swojej filozofii
uczynił analizę praw i zasad rozwoju wiedzy naukowej. Przeciwstawił się
"czysto", logicznej analizie osiągnięć nauki neopozytywistów,
panującej w kole wiedeńskim. Posłużył się koncepcją "trzech światów":
1) doznań, 2) sądów i czynów jednostkowych, 3) ludzkich wytworów mających
charakter obiektywny, uniwersalny. Historię i rozwój nauki zaliczył do
„trzeciego świata”, na który, jego zdaniem, nie mają wpływu dwa pozostałe, co
zbliżyło go do koncepcji obiektywno–idealistycznych. Popper krytykował jednak Platona za to, że ów
"trzeci świat" uznał za wytwór boski. Dla Poppera bowiem jest on
wyłącznie tworem człowieka, który podlega ewolucji i w którym
króluje argument i poszukiwanie prawdy.
[14]Falsyfikacja — procedura metodologiczna, której celem jest obalenie danego zdania, czyli wykazanie jego fałszywości. Falsyfikacja, zwana też negatywną weryfikacją, jest procedurą stosowaną przy akceptacji hipotez.
[15]
Neutrino [wł. < łac.] — Trwałe
cząstki elementarne z grupy leptonów o ładunku elektr. równym zeru, spinie 1/2ħ
i na podstawie ostatnich pomiarów i bardzo
małej prawie równej zeru masie spoczynkowej. Istnieją 3 neutrina i
każdemu neutrinu odpowiada antycząstka — antyneutrino, która różni się od
neutrina przeciwnym znakiem liczby leptonowej. Neutrina powstają w oddziaływaniach słabych
(np. w rozpadzie promieniotwórczym) i nie uczestniczą w oddziaływaniach silnych
ani elektromagnetycznych, wskutek czego odznaczają się ogromną zdolnością
przenikania przez materię. Istnienie neutrina elektronowego przewidział
w 1930 W. Pauli, a odkryli je doświadczalnie 26 lat później F. Reines i C.L.
Cowan; neutrino mionowe odkryli 1962 L. Lederman, M. Schwartz i J. Steinberger.
Po wieloletnich badaniach neutrin słonecznych, atmosferycznych i otrzymywanych
w akceleratorach i reaktorach jądrowych; w 1998 odkryto, że cząstki te jednak mają
masę spoczynkową.
[16] stała Hubble'a współczynnik proporcjonalności o wymiarze 1 km/s/Mps. Stała Hubble’a pojawia się w tzw. prawie Hubble'a opisującym rozszerzanie się Wszechświata. W standardowym modelu ewolucji Wszechświata odwrotność stałej Hubble’a jest miarą jego wieku. Ostatnie (1994) oszacowanie jej wartości wynosi od 70 do 80 km/s/Mps, co prowadzi do określenia wieku Wszechświata na ok. 14 mld lat. Ostatnio wykazano, że stała Hubbla jest parametrem rosnącym w czasie.