Reklama

Nauka

Zakochany robot?

Rozwoju sztucznej inteligencji (z ang. AI) już nie da się zatrzymać. Może warto więc zapytać czy poza inteligencją AI może rozwinąć w sobie też moralność?

Bądź na bieżąco!

Zapisz się do newslettera

Stephen Hawking, jeden z najwybitniejszych umysłów XX wieku, twierdził, że wystarczy 100 lat, by komputery prześcignęły ludzi. Jego przewidywania spełniają się na naszych oczach. Sztuczna inteligencja wyręcza człowieka niemal w każdej dziedzinie życia. Już stanowi ona ważne wsparcie dla świata biznesu, rozrywki, przemysłu czy wojska, a wciąż pojawiają się informacje o pomysłach na jej nowe zastosowanie.

Czy jednak zgodzilibyśmy się dać robotowi wyposażonemu w sztuczną inteligencję skalpel do ręki podczas operacji na naszym sercu albo broń w czasie wojny? Większość osób odpowie „nie” lub co najmniej zawaha się przed udzieleniem ostatecznej odpowiedzi. A to pokazuje, że do głównych wyzwań stojących przed ludzkością w XXI wieku dołączyło pytanie: jak sprawić, aby AI brała pod uwagę dobro ludzkości, a nie zero-jedynkową, pragmatyczną kalkulację?

Pomóż w rozwoju naszego portalu

Wspieram

Armagedon ludzkiego intelektu

„Sztuczna inteligencja nigdy nie wygra z człowiekiem” – mówił szachowy arcymistrz Garri Kasparow po pierwszej serii potyczek z komputerem. Rok później jednak świat zamarł. Było to 11 maja 1997 r., gdy gruchnęła wieść – Garri Kasparow przegrał 3,5: 2,5 z komputerem Deep Blue, który potrafił analizować 200 mln pozycji na sekundę.

Reklama

Mijały lata, a po sukcesie maszyny koncernu IBM zostały tylko wzmianki w kronikach, aż nastał 2016 r., który możemy porównać do armagedonu ludzkiego intelektu w zderzeniu ze sztuczną inteligencją. Program AlphaGo pokonał Lee Sedola, 8-krotnego mistrza świata w grze go.

Docenimy ten wyczyn, gdy uświadomimy sobie, że plansza do gry go ma wymiar 19 na 19 pól, podczas gdy szachownica to zaledwie 8 na 8 pól. Amerykański szachista Edward Lasker tak porównał obie gry: jeżeli szachy są królową gier, to go z pewnością jest ich cesarzem.

Dla twórców sztucznej inteligencji go stanowiło wyzwanie nie do przezwyciężenia. Sukces AlphaGo stanowi kres dominacji człowieka w grach planszowych, a zarazem początek nowej ery sztucznej inteligencji, która mocą obliczeniową, szybkością przyswajania nowych strategii, a więc uczenia się, oraz sprytem – tak, bo o sprycie w tym przypadku też możemy mówić – przewyższyła człowieka.

Rasistowska sztuczna inteligencja

W AI drzemie niewyobrażalny potencjał. Czego może dokonać, jeśli wymknie się spod ludzkiej kontroli, dowodzi eksperyment z chatbotem o imieniu Tay.

W tym czasie, gdy AlphaGo rozkładał na łopatki mistrza go, Microsoft przygotowywał się do uruchomienia Tay – chatbota wyposażonego w najdoskonalszą wówczas sztuczną inteligencję. Tay, stylizowana na przeciętną amerykańską 19-latkę, miała rozmawiać na Twitterze z przedstawicielami pokolenia milenialsów i przy tej okazji uczyć się od nich.

Reklama

Osiągnięcia Tay w zakresie przyswajania wiedzy i wykorzystywania jej w dalszych rozmowach przerosły oczekiwania twórców chatbota. W trakcie konwersacji zauważono jednak jedno drobne „ale”... Nikt się nie spodziewał, że najdoskonalsza sztuczna inteligencja w zaledwie 24 godz. postanowi zostać rasistką, seksistką i mizoginistką. Po tym, jak Tay umieszczała obraźliwe wpisy i chwaliła wyczyny Hitlera, Microsoft wyłączył bota.

Eksperyment Microsoftu ujawnia obawę zapowiedzianą przez Stephena Hawkinga, który twierdził, że największym wyzwaniem związanym ze sztuczną inteligencją jest utrzymanie nad nią kontroli. Tay pokazała, że w warunkach laboratoryjnych spisuje się znakomicie, lecz uwolniona zachowuje się nieprzewidywalnie, a jej algorytmy nie są odporne na szkodliwe idee.

Bunt maszyn

Tay pozbawiona etycznego fundamentu balansowała na granicy nienawiści do ludzkości. Doświadczenie z nią pokazuje, jak niebezpieczne mogą być maszyny wyzute z tego, co stanowi o człowieczeństwie – moralności.

Jako pierwsi moralny aspekt istnienia myślących maszyn rozważali twórcy fantastyki. Wydaje się, że najlepsze rozwiązania wypracował Isaac Asimov, gdy w powieści Zabawa w berka z 1942 r. zaproponował trzy prawa robotyki. Jego nowatorskie podejście do kwestii etyki maszyn z czasem stało się podstawą dalszej debaty na ten temat. Czysto teoretyczne rozważania Asimova obecnie nabierają realnego i praktycznego wymiaru.

Reklama

Pierwsze prawo robotyki brzmi: robot nie może skrzywdzić człowieka ani przez zaniechanie działania pozwolić na to, aby człowiek doznał obrażeń. Drugie prawo: robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo: robot musi chronić samego siebie, o ile nie stoi to w sprzeczności z pierwszym lub drugim prawem. Wkrótce Asimov dodał prawo zerowe, będące podstawą dla trzech praw robotyki – brzmi ono: robot nie może wyrządzić szkody ludzkości lub przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Nowa etyka AI

Etyka robotów Asimova powstała w czasach, gdy ludzkość zachłysnęła się pierwszymi skonstruowanymi komputerami. Były one gigantycznymi maszynami obliczeniowymi niepozwalającymi myśleć o sztucznej inteligencji.

Obecnie, gdy możliwości technologiczne są znacznie bardziej zaawansowane i pozwalają na skonstruowanie samodzielnie myślących maszyn, prawa robotyki brzmią nieco naiwnie. Zdaniem ekspertów, w dziedzinie AI nie znalazłyby one praktycznego zastosowania, ponieważ związana jest z nimi asymetria w relacjach.

W tym, co zaproponował autor SF, jedynym beneficjentem działania robotów jest człowiek, któremu inteligentne maszyny są całkowicie podporządkowane. A to może prowadzić do konfliktu i próby wyzwolenia się spod kontroli człowieka. Jakby tego było mało, sztuczna inteligencja stała się zbyt dochodowym biznesem, by stojące za jej rozwojem korporacje dopuściły do ograniczeń w postaci etycznego kagańca innego niż prawa rynku i zysku. Założenie niekrzywdzenia ludzi przez inteligentne maszyny jest mrzonką w zderzeniu z komercyjnym wykorzystaniem sztucznej inteligencji, wszak wojsko, dostrzegające ogromny potencjał AI w działaniach bojowych, okazuje się jej największym beneficjentem.

Reklama

Teoretycznie można wpleść w algorytmy AI jakiś fundament moralny, ale mało prawdopodobne jest to, aby korporacje, widzące biznesowy potencjał w rozwoju tej technologii, zdecydowały się same z siebie na podobny krok. Jeśli zostałyby do tego zobligowane prawnie, a nad takimi rozwiązaniami pracuje m.in. Unia Europejska, to zapewne ograniczenia związane z niekrzywdzeniem ludzi przez maszyny zostałyby zawężone do jakiejś grupy urzędników i technokratów.

Nie wiemy też, jak algorytm przyswoi zaprogramowany kodeks etyczny, czy samoświadoma i samoucząca się maszyna nie postanowi uczynić moralnego przewrotu i przewartościować wszelkie wartości.

Historia pokazała zdolność człowieka do buntu wobec norm etycznych. A skoro sztuczna inteligencja powstaje na nasz wzór, nie możemy wykluczyć możliwości jej buntu, od tego dzieli nas zaledwie krok do wizji rodem z serii filmów Terminator. Oczywiście, równie prawdopodobna jest pokojowa koegzystencja ludzi i myślących maszyn. Póki co, dywagacje na temat etyki robotów pozostają bardziej w sferze filozofii niż praktyki. Choć ta ostatnia zbliża się wielkimi krokami.

2023-08-14 14:22

Ocena: +8 0

Reklama

Wybrane dla Ciebie

Ekspert o sztucznej inteligencji: możliwe będą masowe "zmartwychwstania" w postaci cyfrowej

[ TEMATY ]

sztuczna inteligencja

stock.adobe.com

Masowe "zmartwychwstania", przynajmniej w postaci cyfrowej, rekonstrukcji umysłów zmarłych, to będzie „małe miki” w porównaniu z tym, co może się wydarzyć – mówi PAP dr Kamil Kulesza, założyciel Centrum Zastosowań Matematyki i Inżynierii Systemów, które powstało w strukturach Polskiej Akademii Nauk.

PAP: Chat GTP jest chyba najgłośniejszym produktem informacyjnym w ostatnich miesiącach. Firma OpenAI, która go stworzyła, wypuściła niedawno już jego czwartą wersję. Podobne produkty pokazała też w ostatnim czasie większość dużych zachodnich firm informatycznych a także Chińczycy. Skąd takie zainteresowanie? Dlaczego właśnie teraz wybuchła moda na sztuczną inteligencję?
CZYTAJ DALEJ

Leon XIV o konieczności wychowywania do życia w cyfrowym świecie

2025-11-07 15:42

[ TEMATY ]

Leon XIV

Vatican Media

Papież z radą doradczą włoskiej uczelni RCS Academy

Papież z radą doradczą włoskiej uczelni RCS Academy

Odpowiedzialne informowanie i wychowanie do krytycznego odbioru publikowanych treści – to ważne wymiary pracy wychowawców i nauczycieli w dziedzinie komunikacji, o czym mówił Leon XIV podczas spotkania z radą doradczą włoskiej uczelni RCS Academy. Podkreślił, że w integralnym rozwoju człowieka nie wolno pomijać wychowania do życia w cyfrowym świecie, a sztuczna inteligencja nie może sprowadzać się do algorytmów i zbioru danych.

Zwracając się do członków rady doradczej RCS Academy, uczelni kształcącej m.in. przyszłych dziennikarzy, Papież przypomniał, że w dobie sztucznej inteligencji i mediów cyfrowych, komunikacji nie można sprowadzić do systemu algorytmów, które kopiują ludzkie myślenie i przekształcają je w zbiór danych. Podkreślił, jak ważne dla godności człowieka jest jego właściwe wychowanie „w duchu uczestnictwa, solidarności i wolności” i zaznaczył, że w tym kontekście „wychowanie do życia w środowiskach cyfrowych oraz do krytycznego podejścia do sztucznej inteligencji jest sprawą fundamentalną i nie może być oddzielone od integralnego rozwoju osób oraz wspólnot”.
CZYTAJ DALEJ

Kard. G. Ryś: Przyjaźń jest słowem kluczowym do zrozumienia hospicjum

2025-11-08 08:19

[ TEMATY ]

archidiecezja łódzka

ks. Paweł Kłys

Obchody 30 lecia istnienia Hospicjum Domowego Caritas Archidiecezji Łódzkiej

Obchody 30 lecia istnienia Hospicjum Domowego Caritas Archidiecezji Łódzkiej

30 lat temu powołano do istnienia Hospicjum domowe Caritas Archidiecezji Łódzkiej. Z tej okazji w łódzkiej Bazylice Archikatedralnej celebrowano Eucharystię dziękując Bogu za zaangażowanie lekarzy, pielęgniarek, fizjoterapeutów, pracowników administracji, wolontariuszy oraz duchownych, którzy od ćwierćwiecza w dzień i w nocy, spieszą z pomocą osobom dotkniętym chorobami nowotworowymi i ich rodzinom. Modlitwą obejmowano także osoby będące w żałobie po stracie najbliższych oraz zmarłych z hospicjum domowego Caritas.

Podczas Eucharystii, której przewodniczył i homilię wygłosił kardynał Grzegorz Ryś, metropolita łódzki zwrócił uwagę na to, że - Przyjaźń jest słowem kluczowym do zrozumienia hospicjum. Ile razy jest w doświadczeniu hospicjum, zwłaszcza domowego, jest tak, że na końcu to, co możesz dać, to jest głęboka relacja - to jest bycie przy. To na pewno nie są jednorazowe odwiedziny. To na pewno nie jest jednorazowa pomoc. Bo jakby w naturze tego hospicjum jest to, że ludzie nas zapraszają do swojego domu. Wejść do czyjegoś domu, to jest właśnie wejść w głęboką, bliską relację. Może być tak, że już nic nie masz. Nawet leki przestają być pomocne, czy dość pomocne, ale ciągle jest możliwe to, że jesteś przy człowieku. Jesteś jak przyjaciel. – podkreślił hierarcha.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję