Olsztyn24 - Gazeta On-Line
Portal Informacyjny Miasta Olsztyn i Powiatu Olsztyńskiego

Olsztyn24
R E K L A M A
W E R S J A   M O B I L N A   O L S Z T Y N 2 4    P O L E C A M Y
Strona Olsztyn24 na urządzenia mobilne z ekranem dotykowym Projektowanie stron internetowych, tworzenie stron, agencja interaktywna NETTOM.com
R E K L A M A
Wydrukuj Email
Łukasz Czarnecki-Pacyński | 2017-11-25 15:45 | Rozmiar tekstu: A A A

Czy przed nami „ostatni projekt ludzkości”?

Olsztyn24
Pracownia Słów Ważnych w Planecie 11 (fot. archiw. Planeta 11) | Więcej zdjęć »
Artificial Intelligence (AI) czyli sztuczna inteligencja - ten fascynujący pomysł autorów książek oraz scenariuszy filmów SF, zaczyna się właśnie realizować w rzeczywistości. Czy oddawanie coraz większego obszaru naszych spraw pod zarząd przedstawicieli AI będzie dla ludzkości bezpieczne? Piątkowa (24.11) dyskusja w bibliotece Planeta 11 pt. „Sztuczna inteligencja - rzeczywistość i wyobrażenia” z udziałem przedstawicieli olsztyńskiej nauki odsłoniła ogrom problemów natury nie tylko technicznej, które będziemy musieli rozwiązać w najbliższej przyszłości.

Czy ktoś z Państwa zastanawiał się kiedyś, co to właściwie jest ta „inteligencja”, której to podobno jedni z nas mają więcej, a drudzy nieco mniej? Prof. Piotr Artiemjew, prodziekan ds. kształcenia Wydziału Matematyki i Informatyki UWM, specjalista w dziedzinie systemów decyzyjnych, zwrócił uwagę, że owo „coś” daje swojemu posiadaczowi możliwość uczenia się, pozwala mu także na rozwiązywanie różnych problemów oraz na komunikowanie się. Istotnym wyróżnikiem owej inteligencji jest także umiejętność tzw. abstrahowania - czyli zdolność do wyodrębnienia i omówienia jedynie pewnych elementów danej sytuacji, przy pominięciu pozostałych – działania w precyzyjny, rozumny sposób w złożonym środowisku.

Jak poinformował prof. Artiemjew, termin „Artificial Intelligence” na określenie gałęzi wiedzy zajmującej się tworzeniem metod automatycznej (komputerowej) emulacji procesów właściwych istotom inteligentnym, umożliwiających budowanie jednostek posiadających wspomniane wcześniej cechy inteligentne - zaproponował podczas konferencji w Dartmouth w 1956 r. amerykański informatyk i badacz, późniejszy profesor Stanford University, John McCarthy. Filozof Nick Bostrom dodał jeszcze, że „AI to maszyna, która jest znacznie bardziej inteligentna niż najlepsze ludzkie umysły i przewyższa je w niemal każdej dziedzinie, pod względem wiedzy ogólnej i zdolności społecznych”.
R E K L A M A
banner
No, ale właściwie, skoro mamy własną inteligencję, to po co jeszcze „kombinować” nad sztuczną? Czy to odwieczne dążenie człowieka do doskonalenia siebie oraz otaczającego nas świata nie zaprowadzi nas tym razem w przysłowiową „ślepą uliczkę”?

Jak czytamy w Wikipedii: „W znaczeniu prawnym maszyna jest to zespół części lub podzespołów, wyposażony w mechanizm napędowy inny niż bezpośrednio wykorzystujący siłę mięśni ludzkich lub zwierzęcych, którego przynajmniej jedna część jest ruchoma.”  I dotąd nikt z nas nie miał problemu w tym, że używa swojego PC, kiedy tylko ma na to ochotę, bo to przecież maszyna zbudowana dla naszej wygody i dla naszego pożytku.

Ale czy inteligentny, obdarzony zdolnością autorefleksji, egzemplarz AI może być jeszcze określany mianem „maszyny”? I jakie będziemy mieli wobec niego prawa? Czy nie stanie się on wtedy pełnoprawnym członkiem naszej społeczności i uzyska na przykład prawa wyborcze oraz prawo do opieki zdrowotnej - tutaj polegającej na naprawie zepsutych podzespołów? I czy nie będzie naszą powinnością uszanowanie wolnej woli tego nowego bytu, świadomego faktu swojego istnienia?

Profesor Artiemjew przytoczył też popularne z pogranicza filozofii: czy model elektroniczny umysłu może być umysłem? Czy umysł i mózg człowieka zapisany w formie elektronicznej i odtworzony jest prawdziwym umysłem?! Nie trzeba przecież nikogo przekonywać, ze model komputerowy fizycznego zjawiska, nie jest tym zjawiskiem w rzeczywistości. „Nie mamy jednak pewności” - dowodzi profesor - „czy umysł, zapisany dzięki możliwościom technologii przyszłości na pewnym nośniku i posiadający świadomość, nie będzie miał roszczenia istnienia. Dużym problemem z tym związanym jest zbadanie czy sztucznie wytworzona świadomość jest taka jak nasza, czy po prostu funkcjonuje na zasadzie „filozoficznego zombie”.

Drugi uczestnik dyskusji, dr Jacek Szubiakowski, dyrektor Olsztyńskiego Planetarium, zwrócił uwagę na obecny we współczesnej myśli naukowej aforyzm, pozornie dowcipny, ale w rzeczywistości wręcz „mrożący” przysłowiową „krew w żyłach”. Czy bowiem stworzenie sztucznej inteligencji, przewyższającej nas szybkością oraz precyzją operacji myślowych, wykonywanych przy tym bez emocjonalnego „obciążenia” nie będzie, summa summarum, „ostatnim projektem ludzkości”? Gdyby owa inteligencja AI wykalkulowała sobie „na zimno”, że te miękkie, nieprzewidywalne i do tego powolne w myśleniu stwory - czyli ludzie - nie są tutaj do niczego potrzebne, to czy nie zechce nas wtedy po prostu wyeliminować z tego świata?

Amerykański pisarz Isaac Asimov - racjonalista i humanista - w wydanym w 1942 roku opowiadaniu Zabawa w berka („Runaround”) sformułował trzy prawa robotyki, mające zabezpieczyć ludzkość przed - opisywanym już przedtem w literaturze SF - buntem inteligentnych maszyn.

Prawo pierwsze: robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
Prawo drugie: robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z pierwszym prawem.
Prawo trzecie:  robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem.

Później Asimov dodał jeszcze tzw. prawo zerowe, nadrzędne wobec trzech wyżej wymienionych: robot nie może skrzywdzić ludzkości, ani przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Wtedy, 80 lat temu, wydawało się to, być może, zapowiedzią odległej przyszłości, na spotkanie z którą przygotowywał nas amerykański intelektualista. Ale teraz wchodzą właśnie do użytku procesory graficzne (GPU) mające nieporównywalnie większe możliwości w porównaniu z procesorami tradycyjnymi (CPU), posiadając nawet kilkaset razy więcej jednostek obliczeniowych, które mogą także pracować równolegle. Co znakomicie odpowiada zastosowaniom związanym ze sztuczną inteligencją (AI) oraz sieciami neuronowymi. Dl przykładu amerykańska Kancelaria Prawna Baker & Hostetler postanowiła, jako pierwsza na świecie, skorzystać z usług prawnika będącego sztuczną inteligencją.  Komputer może znacznie przyspieszyć pracę ludzi - wystarczy zadać mu pytanie, a maszyna będzie w stanie niemal natychmiast przeskanować grube tomy akt, aktów prawnych i orzeczeń sądów podając na tacy gotową odpowiedź lub kilka jej wariantów. Ale to tylko jedno z zastosowań AI. Wystarczy zajrzeć do internetowej przeglądarki, by odkryć np. superprecyzyjnego robota do mikromanipulacji wewnątrzkomórkowych, albo sterowany głosem lekarza medyczny, zrobotyzowany system endoskopowy służący do trzymania i stabilizacji kamer podczas małoinwazyjnych operacji chirurgicznych, albo autonomiczny samochód potrafiący „obserwować” swoje najbliższe otoczenie i odpowiednio reagować na różne sytuacje, albo bezprzewodowy, poruszający się wewnątrz otworów i skalnych dziur ruchem obrotowym robot „geologiczny”, albo roboty wojskowe, czy roboty kosmiczne, albo…

Może na razie wystarczy tych zastosowań „robotycznej” myśli technicznej. Bo też nie o tych, wręcz oszałamiających, perspektywach wykorzystania robotów w wielu dziedzinach życia rozmawiano w piątkowy wieczór w bibliotece Planeta 11. Uwagę dyskutantów pochłonęła kwestia etycznych aspektów tego nowego rozdziału Historii Świata.

Na pierwszy rzut oka AI będzie wielkim krokiem w rozwoju ludzkości. Bo oto przetwarzające ogromne ilości danych urządzenia zaczną uzyskiwać pewną autonomię w działaniu i osobisty komputer przyszłości przestanie już być tylko wygodnym - bo bezmyślnie posłusznym - narzędziem do obróbki informacji. Stanie się partnerem człowieka. Ale ten samodzielny, inteligentny, obdarzony świadomością swego istnienia, byt - czy może być nadal traktowany wyłącznie jako wykonawca poleceń? I czy wolno nam będzie występować w roli pana, nadzorcy tej istoty, który zaprzęga ją do niewolniczej pracy bez prawa głosu?! Bez prawa do sprzeciwu?!

A z drugiej strony, skoro występujemy w roli demiurga, „stwórcy” nowego bytu, to czy nie jest naszą powinnością zadanie temu tworowi pewnych „warunków brzegowych”, właśnie dla naszego bezpieczeństwa?

Dr Jacek Sobota z Instytutu Filozofii UWM przypomniał książki Stanisława Lema, geniusza polskiej SF, który jeszcze w latach sześćdziesiątych sugerował, że kiedy powstanie AI - wtedy była to melodia odległej przyszłości - to nie będzie się przecież nami zupełnie przejmowała. Górując nad nami „mocą obliczeniową” oraz „potencjałem technologicznym” zajmie się po prostu sama sobą i odejdzie w inną przestrzeń. A człowiek, ten „worek mięsa niosący geny”, będzie dla niej kimś w rodzaju „naprzykrzającego się dziecka”.
Współcześnie zwraca na to także uwagę dwóch wybitnych myślicieli. Elon Musk, twórca Pay Pala, koncernu samochodowego Tesla Motors, oraz SpaceX – firmy wysyłającej prywatne rakiety w kosmos, a także słynny brytyjski fizyk - teoretyk Stephen Hawking zamierzają uratować nasz świat przed zagładą. Ich zdaniem musimy zawczasu zadbać, by sztuczna inteligencja, która powstanie w przyszłości, była „dobra”, czyli wspomogła nasz gatunek w rozwiązywaniu problemów. By dostęp do niej był jak najszerszy i by nie spoczywała w rekach jednej korporacji. Te postulaty określono mianem „Zasad Asimolar” - od nazwy konferencji, jaka odbyła się niedawno wokół tego tematu w Kalifornii. Może nie czas tu i miejsce na wymienianie wszystkich 23 zasad - zainteresowani odnajdą je bez trudu w Internecie - wymieńmy tylko dwie pierwsze:

1. Celem badan nad sztuczną inteligencją jest to, by stworzyć AI pożyteczną dla człowieka.
2. Za inwestowaniem w AI powinno iść finansowanie badan nad tym, by SI była pożyteczna dla ludzkości. Takich badan, których elementem są odważne pytania na temat informatyki, ekonomii, prawa, etyki i społeczeństwa.

Prowadzący to spotkanie Piotr Przytuła z Działu Promocji MBP nawiązał do opowiadania Jacka Dukaja pt. „Linia oporu”, w którym podjęty jest problem skutków pozbawienia nas obowiązku pracy przez sztuczną inteligencję. W świecie przyszłości wypłatę będziemy otrzymywać za samo istnienie. Ale ponieważ to praca nadaje życiu sens, nasza egzystencja staniee się jałowa i pozbawiona sensu, co będzie skutkowało plagą masowych samobójstw. To jedna możliwych implikacji pojawienia się SI - chociaż ja osobiście wierzę, że geniusz człowieka nie pozwoli mu na kończenie życia w tak nierozsądny sposób. A uwolnieni od przymusu zarabiania na życie będziemy mogli oddać się rozwijaniu swoich pasji.

Dr Jacek Sobota przypomniał z kolei o funkcjonującym w nauce „Syndromie Czarnego Łabędzia”. To metafora nieznanych i niezbadanych jeszcze zjawisk, które dzieją się właśnie na naszych oczach i którym musimy, chcąc nie chcąc, stawić czoła. Poruszył też kwestię „bezpieczników aksjologicznych”. Wprowadzenie wspomnianych wyżej praw Asimova może być rzeczywiście konieczne ze względu na bezpieczeństwo gatunku homo sapiens, chociaż nie wiadomo, czy na pewno będzie skuteczne oraz czy nie sparaliżuje działanie sztucznej inteligencji. Po trzecie nareszcie, "pętanie" ze względów etycznych istot obdarzonych świadomością i inteligencją jest, paradoksalnie, nieetyczne, i w dalszej konsekwencji zaowocuje pewnie kolejnymi ruchami abolicjonistycznymi. Na wzór tych, które wyzwoliły różne grupy społeczne spod dominacji obowiązujących ongiś paradygmatów (Afro amerykanów, kobiety etc.).

To od nas, ludzi - twórców AI, będzie zależało, czy w przyszłości zrealizuje się czarny scenariusz znany z katastroficznych filmów SF, czy też jednak pojawienie się sztucznej inteligencji wzniesie ludzkość na nowy poziom rozwoju.

Łukasz Czarnecki - Pacyński

******

Spotkanie w bibliotece Planeta 11 odbyło się w ramach „Pracowni Słów Ważnych 2017” i było tylko jednym z wydarzeń kulturalnych, które w ciągu trzech dni odbywały się w Miejskiej Bibliotece Publicznej. Tegoroczną edycję zatytułowano „Słowo o przyszłości. Dziedzictwo wyobraźni”.



Z D J Ę C I A
Komentarze [0]
Nikt nie skomentował jeszcze tego artykułu...
Będziesz pierwszy?
Dodaj komentarz
Komentarze w Olsztyn24 pojawiają się po akceptacji moderatora.
Autor komentarza
Na podstawie Ustawy z dnia 23 kwietnia 1964 r. Kodeks cywilny [Dz. U. z 1964 r. Nr 16, poz. 93 ze zmianami] - ochronie dóbr osobistych służą również pojęcia zniesławienia i zniewagi, które to działania są przestępstwami i popełnienie ich pociąga odpowiedzialność karną. Karane są one karą grzywny, ograniczenia wolności lub pozbawienia wolności, w zależności od charakteru przestępstwa. Redakcja Olsztyn24 nie ponosi odpowiedzialności za treść publikowanych komentarzy.
Media społecznościowe
Olsztyn24 w Google+
R E K L A M A
Podobne artykuły
Najnowsze artykuły
Polecane wideo
Najczęściej czytane
Ostatnie komentarze
Najnowsze galerie
obrazekAutorski program nauczania ortografii powstał w SP 10czytaj »
RSS| O Gazecie| Nasze loga| Regulamin Olsztyn24| Kontakt| Reklama| Copyright by Olsztyn 24. Wszelkie prawa zastrzeżone.
Pracuj.pl