The RationalistSkip to content


We have registered
204.982.792 visits
There are 7362 articles   written by 1064 authors. They could occupy 29015 A4 pages

Search in sites:

Advanced search..

The latest sites..
Digests archive....

 How do you like that?
This rocks!
Well done
I don't mind
This sucks
  

Casted 2992 votes.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:
Sklepik "Racjonalisty"
« Science  
O nowych technologiach i konkurencji intelektualnej
Author of this text:

Świat, w którym żyjemy

Z wielu spraw, o których wiele się dzisiaj mówi na świecie, chciałbym tym razem skupić uwagę na dwóch takich kwestiach: poszukiwaniu nowych technologii i konkurencji intelektualnej. Sprawy te, wbrew pozorom, bardzo się w końcu ze sobą wiążą.

Planowanie rozwoju nowych technologii jest działalnością bliższą nauk zdobytych na podstawie wróżenia z fusów, niż jakakolwiek inna dziedzina organizowania i systematyzowania ludzkiej wiedzy. Prognozowano na przykład, że głównym motorem eksploracji kosmosu będzie dążenie do pozyskania rzadkich i cennych surowców, a także możliwości, jakie daje działalność przemysłowa w warunkach nieważkości. Fascynacja kosmosem, jaka się z tym łączyła, miała wiele wspólnego z przygodą poznania nowych lądów, jaką przeżywamy czytając książki lub oglądając filmy opisujące wyprawy Kolumba, Cooka, zdobywców biegunów czy poszukiwaczy zaginionych cywilizacji Azji i Ameryki.

Niestety, rozwój nauki może pozbawić nas szansy na powtórkę wypraw Wikingów. Dla marzycieli powstała istotna trudność. Pojawiła się nowa dziedzina wiedzy, dla której najcenniejszym źródłem surowców jest jakikolwiek materiał, nawet kupa śmieci. Brzmi to dziś absurdalnie, ale nanotechnologia molekularna, bo o niej mowa, przestała być zabawką grupy entuzjastów i miłośników fantazji, a weszła do programów badawczych o kluczowym znaczeniu dla przyszłości naszego świata. Nad jej rozwojem pracują, w oparciu o ogromne środki finansowe, czołowe laboratoria Ameryki Północnej, Europy Zachodniej i Japonii. W Unii Europejskiej uruchomiono osobny, paneuropejski program, który umożliwia koncentrację wysiłków naukowców wszystkich krajów europejskich.

Nanotechnologia dąży do wypracowania takich procedur wytwarzania wyrobów, które dotyczą podstawowych elementów budowy każdego materiału: atomów. Właściwości fizyczne i chemiczne danego produktu są funkcją ułożenia atomów. Nanotechnologia koncentruje się obecnie na tworzeniu technik, które umożliwiają przemieszczenie ułożenia tych podstawowych elementów składowych, a tym samym skuteczną kontrolę struktury materii. Pierwszym, który już w roku 1959 stwierdził, że jest technicznie możliwe operowanie pojedynczymi atomami w celu otrzymania nowego ich ułożenia, czyli nowego materiału, był laureat nagrody Nobla z fizyki, Amerykanin Richard Feynman. Długi czas traktowano odkrycie jako nieprawdopodobne: wiele autorytetów powoływało się na fakt, że nawet nie wiemy dokładnie, jak skonstruowany jest atom i jaki jest związek między budową świata na poziomie molekularnym a materialnym, w którym funkcjonuje nasze codzienne życie.

Dopiero trzydzieści lat po pierwszym wystąpieniu Feynmana, w 1989 roku, udało się uchwycić i przesunąć pojedyncze atomy — mimo wszystkich trudności teoretycznych, związanych z zasadą nieoznaczoności, wibracjami termicznymi i promieniowaniem. Pierwsi byli uczeni z kalifornijskiego Centrum Badawczego IBM w San Jose, którym udało się ustawić 35 pojedynczych atomów ksenonu w formę napisu IBM. Wkrótce potem w innych ośrodkach fizyki atomowej skonstruowano molekularną przekładnię obiegową, przełącznik elektryczny (zbudowany z jednego, pulsującego na komendę, atomu) i wiele innych maszyn molekularnych. Okazało się, że to, co było dotychczas tylko fikcją literacką twórców fantastyki, stało się rzeczywistością.

Manipulacje atomowe oznaczają równocześnie, że możliwe jest dowolne formowanie jednostek wyższego, bardziej złożonego rzędu, np. cząsteczek DNA lub aminokwasów. Powstaje więc całkowicie nowa medycyna. Szereg chorób, takich jak np. nowotworowe lub wirusowe, to skutek deformacji dotychczas normalnie funkcjonujących komórek ludzkiego ciała. Także procesy starzenia sprowadzają się do tego, że dotychczas rozwijające się komórki, na skutek wewnętrznego metabolizmu, zamierają.

Nanotechnologia w tych przypadkach dąży do wybudowania odpowiednich mikromaszyn, które dotrą na poziom molekularny i przetworzą wadliwie funkcjonujące komórki, np. w drodze wymiany jednego aminokwasu w strukturze hemoglobiny lub rekonstrukcji pojedynczej cząsteczki DNA. Prawdę powiedziawszy oznacza to, że prawie cała dotychczasowa wiedza chemików przestaje być potrzebna, tak jak dziś przestała być potrzebna wiedza wysoko wykwalifikowanych inżynierów zajmujących się obróbką mechaniczną metali na skutek rozwoju nowych technologii obróbki cieplnej.

Ten, kto pierwszy opracuje nowe metody leczenia oparte na nanotechnologii, doprowadzi do bankructwa całych ogromnych dziś koncernów farmaceutycznych. Gra idzie więc o ogromną stawkę, o to, jak będzie wyglądał świat w najbliższych dziesięcioleciach.

Manipulacja molekułami oznacza również, że nie będzie zagrażać ludzkości brak ropy naftowej, wody, żywności. Z piasku, wzorem Mickiewiczowskiego diabła, można będzie zrobić nie tylko bicz, ale z równym powodzeniem dobrą, źródlaną wodę albo schabowy z kapustą, lekko podsmażoną.

2

W jednym z opowiadań Stanisława Lema opisany jest moment końca ludzkości jako zdarzenie niewidoczne dla otoczenia. Nie wybuchy tysięcy bomb atomowych czy ogólnoświatowa epidemia, ale moment, ułamek sekundy, gdy komputery całego świata połączyły się w jednolitą sieć. Stworzyły w ten sposób super pamięć, o olbrzymiej możliwości przetwarzania danych i wygenerowały nową inteligencję oraz samoświadomość swego samodzielnego istnienia. Ludzie ­ ułomne, biologiczne jednostki przetwarzania informacji, przestali być potrzebni: byli tylko etapem w rozwoju inteligencji, która przeniosła się do obwodów scalonych, jednocześnie obejmujących cały ziemski glob.

Dziś jesteśmy w przededniu uruchomienia sieci łączącej komputery zlokalizowane w różnych miejscach. Co prawda obecnie, poprzez łącza telefoniczne możemy połączyć się z komputerem w dowolnym miejscu na świecie — jest to Internet, który ułatwił dostęp do informacji i zredukował czas jej przesyłania do najwyżej kilku minut. Ale połączenia internetowe mają charakter bierny: korzystamy z zasobów, które ktoś inny, w innym miejscu dał nam do dyspozycji. Sieć łącząca komputery to coś znacznie trudniejszego, ale zarazem stwarzającego zmianę ilościową i jakościową: połączenie mocy obliczeniowej wszystkich komputerów wchodzących w skład sieci.

Zmiany zainicjowali, podobnie jak w przypadku wprowadzenie Internetu, fizycy atomowi z CERN (europejskiej organizacji badań nuklearnych). W 2005 roku CERN ma zakończyć budowę nowego, ogromnego akcelatora cząstek elementarnych, LHC. Cząsteczki w tym akcelatorze będą się zderzać z częstotliwością 40 milionów na sekundę. Analiza tych danych wymagałaby zatrudnienia ok. 100 tysięcy komputerów. Co więcej, w grę wchodzi nie tylko analiza zderzeń, ale też szereg badań towarzyszących zderzeniom. Niezbędna byłaby prędkość operacji zerojedynkowych wynoszących 20 000 bilionów operacji na sekundę — dziś najszybsze komputery mają wydajność ok. 3000 bilionów operacji na sekundę.

Przezwyciężyć problem braku wystarczającej wydajności poszczególnych komputerów może tylko rozwiązanie polegające na połączeniu ich w jedność, w swoiste światowe wirtualne laboratorium, albo de facto jeden superkomputer zlokalizowany w częściach w różnych miejscach naszego globu.

W Europie pracuje 18 instytucji badawczych nad opracowaniem odpowiedniego oprogramowania i metodami skutecznych połączeń. Nazywany na roboczo DataGird system oparty będzie na tzw. oprogramowaniu pośrednim, które dostosuje systemy operacyjne różnych komputerów i umożliwi dostęp do zasobów pamięci danego komputera niezależnie od prac aktualnie realizowanych przez użytkownika będącego właścicielem danej jednostki. Wiadomo, że w dyspozycji komputera powstają niewykorzystane zasoby możliwości przetwarzania danych; ich włączenie w sieć pozwoli na ich wykorzystanie w sposób elastyczny, zależnie od potrzeb programu potrzebującego większej mocy przetwarzania. Może być tak, że nasz komputer, na którym właśnie piszemy list lub przeglądamy internetowe wieści, równocześnie analizuje dane o aktualnych zmianach w rozmiarach dziury ozonowej (lub polskiego budżetu, ale tu chyba komputerów nie starczy), lub ilości neutrin wpadających do zbiorników z ciężką wodą gdzieś w Japonii.

To, co kilkanaście lat temu było czystą fantazją, purnonsensową zabawką naszego pisarza i jego czytelników, dziś staje się rzeczywistością. Mam, co prawda nadzieję, że jeszcze tym razem zachowamy się jako niezależny gatunek, ale kto wie na jak długo...

„Res Humana" 5(54)/2001


 Po przeczytaniu tego tekstu, czytelnicy często wybierają też:
Spotkanie ze starą
Nigdy nie było nam tak dobrze - a zawdzięczamy to nauce

 Comment on this article..   See comments (4)..   


« Science   (Published: 18-10-2006 )

 Send text to e-mail address..   
Print-out version..    PDF    MS Word

Daniel Zbytek
Były dyplomata, z zawodu ekonomista, absolwent SGH.

 Number of texts in service: 21  Show other texts of this author
 Newest author's article: Formy świeckości
All rights reserved. Copyrights belongs to author and/or Racjonalista.pl portal. No part of the content may be copied, reproducted nor use in any form without copyright holder's consent. Any breach of these rights is subject to Polish and international law.
page 5072 
   Want more? Sign up for free!
[ Cooperation ] [ Advertise ] [ Map of the site ] [ F.A.Q. ] [ Store ] [ Sign up ] [ Contact ]
The Rationalist © Copyright 2000-2018 (English section of Polish Racjonalista.pl)
The Polish Association of Rationalists (PSR)