Reklama

Felietony

Pułapki sztucznej inteligencji

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje.

Niedziela Ogólnopolska 27/2025, str. 36

[ TEMATY ]

Monika Przybysz

Moim zdaniem

Red.

Bądź na bieżąco!

Zapisz się do newslettera

Wraz z rosnącą popularnością narzędzi sztucznej inteligencji, takich jak ChatGPT, rośnie ryzyko nadużywania kolejnego potężnego narzędzia. Nieodpowiedzialne korzystanie z modeli językowych może prowadzić do szeregu problemów – od utraty umiejętności krytycznego myślenia po dezinformację i uzależnienie od technologii. ChatGPT wykazuje negatywny wpływ na funkcje poznawcze, w tym pamięć operacyjną, zdolność cytowania i poczucie autorstwa.

Reklama

Ciekawe w tym względzie jest badanie wpływu ChatGPT na funkcje poznawcze. Zostało ono przeprowadzone w Massachusetts Institute of Technology (MIT) i potwierdza wcześniejsze badania opublikowane w czołowych naukowych czasopismach, które wykazały wpływ sztucznej inteligencji (AI) na zmiany w ludzkim myśleniu. Badanie przeprowadzone przez naukowców z MIT, oparte na analizie EEG pięćdziesięciorga czworga studentów, wykazało, że intensywne korzystanie z ChatGPT prowadzi do obniżenia pamięci, zdolności krytycznego myślenia oraz aktywności mózgu. Wskazuje na zjawisko „długu poznawczego” (ang. cognitive debt), czyli pozornej produktywności kosztem pogorszenia funkcji poznawczych. Nadmierne poleganie na odpowiedziach generowanych przez AI może osłabić zdolność użytkowników do samodzielnego analizowania informacji. Studenci, którzy regularnie korzystali z ChatGPT do pisania esejów i rozwiązywania problemów, wykazywali mniejszą skłonność do weryfikacji źródeł i krytycznej oceny danych. Automatyzacja procesów myślowych może prowadzić do intelektualnego lenistwa, szczególnie wśród młodych ludzi.

Pomóż w rozwoju naszego portalu

Wspieram

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje, zwłaszcza gdy użytkownicy nie weryfikują wyników. Według badania opublikowanego w Nature Communications (2024), aż 62% użytkowników AI nie sprawdza odpowiedzi modeli językowych, co zwiększa ryzyko rozprzestrzeniania fake newsów, szczególnie w mediach społecznościowych.

Korzystanie z AI jest wygodne, ale może prowadzić do uzależnienia. Chodzi o zjawisko „automatyzacji zaufania”, gdy użytkownicy bezrefleksyjnie przyjmują odpowiedzi AI jako ostateczne. Wyniki badań zamieszczonych w Frontiers in Psychology (2023) pokazują, że osoby regularnie korzystające z asystentów AI wykazują symptomy podobne do uzależnienia od mediów społecznościowych, takie jak kompulsywne sprawdzanie odpowiedzi czy niepokój w sytuacjach wymagających samodzielnego działania. Nadużywanie AI rodzi pytania o prywatność i manipulację. Modele językowe gromadzą dane użytkowników, co budzi obawy o ich wykorzystanie, np. w celach marketingowych lub politycznych. Co więcej, brak regulacji prawnych dotyczących AI zwiększa ryzyko nadużyć, np. w edukacji czy rekrutacji. Wyniki badania z AI & Society (2024) wskazują, że masowe użycie AI w rekrutacji może prowadzić do dyskryminacji, jeśli algorytmy nie są odpowiednio nadzorowane.

Nie jest to jednak nowość, ponieważ w badaniu z 2011 r., opublikowanym w Science Sparrow, Liu i Wegner opisali tzw. efekt Google; wskazali, że dostępność informacji w internecie zmienia sposób, w jaki nasz mózg przetwarza i przechowuje dane. Kiedy wiemy, że możemy łatwo sprawdzić informacje (np. za pomocą wyszukiwarki), nasz mózg mniej angażuje się w ich zapamiętanie, a zamiast tego „deleguje” pamięć zewnętrznym źródłom. Badanie wykazało, że uczestnicy lepiej zapamiętali, gdzie można znaleźć informacje (np. w którym folderze lub wyszukiwarce) niż same fakty, co sugeruje, że współczesne technologie przekształcają naszą pamięć w bardziej „transaktywną”, opartą na współpracy z narzędziami cyfrowymi.

Aby zminimalizować zagrożenia, kluczowe jest świadome korzystanie z AI. Dlatego lepiej przyjąć pozytywne nastawienie do sztucznej inteligencji i wdrażać edukację w zakresie krytycznego myślenia i weryfikacji informacji. Warto również ustalić granice korzystania z narzędzi AI, szczególnie w edukacji i pracy zawodowej. Wniosek badaczy z MIT jest kluczowy: „Musimy uczyć ludzi, kiedy warto używać AI, a kiedy lepiej samemu się zastanowić”.

2025-06-30 18:52

Oceń: +3 0

Reklama

Wybrane dla Ciebie

Algorytmy zakupowe

Znaczna większość osób korzystających z platform społecznościowych nie jest świadoma tego, że wchodzi w interakcję nie z żywymi istotami, a z algorytmami.

Zakupy świąteczne w pełni, a za chwilę – nawet w korkach, kolejkach i maratonie zakupowym. Gdy przygotowujemy się do kupowania prezentów, warto zdawać sobie sprawę z przynajmniej części mechanizmów zachęcających nas do wydawania większych kwot i kupowania kolejnych (nie)potrzebnych produktów.
CZYTAJ DALEJ

Niezbędnik Katolika miej zawsze pod ręką

Do wersji od lat istniejącej w naszej przestrzeni internetowej Niezbędnika Katolika, która każdego miesiąca inspiruje do modlitwy miliony katolików, dołączamy wersję papierową. Każdego miesiąca będziemy przygotowywać niewielki i poręczny modlitewnik, który dotrze do Państwa rąk razem z naszym tygodnikiem w ostatnią niedzielę każdego miesiąca. Dostępna jest również wersja PDF naszego Niezbędnika!

CZYTAJ DALEJ

W jaki sposób rozeznać pokusę światowości?

2025-11-01 16:00

[ TEMATY ]

duchowość

wiara

Ks. Krzysztof Wons SDS

pixabay.com

Jak w dzisiejszych czasach rozeznać co jest głosem Boga, a co jedynie podszeptem światowego myślenia? Jak odpowiednio rozeznawać swoje działania i zanurzać swoją codzienność w Słowie Bożym? Z pomocą przychodzi znany i ceniony rekolekcjonista, ks. Krzysztof Wons w swojej najnowszej książce „Działanie duchów w stanach pokusy”.

Modlitwa Psalmem 1165
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję