advert 0:
advert:
device 1:all
device 2:all
advert final:
Włącz radio

AI zastąpi człowieka? Ekspert nie ma złudzeń. "Dopiero się zaczyna"

8 min. czytania
14.04.2025 07:35
Zareaguj Reakcja

Sztuczna inteligencja już nie tylko fascynuje i zaskakuje – staje się jednym z najważniejszych wyzwań naszych czasów. Wraz z jej dynamicznym rozwojem rośnie nie tylko komfort codziennego życia, ale i liczba pytań, na które wciąż nie mamy gotowych odpowiedzi. Jak zapanować nad technologią, która uczy się szybciej, niż my ją rozumiemy? I czy potrafimy jeszcze postawić jej granice, zanim znikną na dobre? O tym w rozmowie z Radiem Złote Przeboje opowiedział kierownik Centrum HumanTech na Uniwersytecie SWPS w Warszawie dr Konrad Maj.

Czy sztucznej inteligencji trzeba się obawiać?
fot. Wikimedia Commons/włodi/CC BY-SA 2.0

Sztuczna inteligencja coraz mocniej wkracza w naszą codzienność – i choć często nie zdajemy sobie z tego sprawy, korzystamy z niej niemal na każdym kroku. Pomaga nam w pisaniu wiadomości, planowaniu trasy, wyborze serialu na wieczór, a nawet monitoruje nasze zdrowie. Działa cicho, w tle, a jednocześnie potrafi realnie poprawiać jakość życia – zwłaszcza osób starszych czy z niepełnosprawnościami, dla których AI bywa wsparciem w codziennej samodzielności.

Rozwój tych technologii otwiera ogromne możliwości – od medycyny, przez edukację, aż po walkę z samotnością i wykluczeniem. Ale wraz z ogromnym potencjałem pojawiają się też poważne pytania – o bezpieczeństwo, etykę i granice zaufania wobec maszyn. Czy AI może się pomylić? Kto odpowiada za jej błędy? I czy przypadkiem nie oddajemy jej zbyt wiele kontroli nad naszym życiem?

O tym, jak mądrze wykorzystywać sztuczną inteligencję i czego się przy tym wystrzegać, rozmawiamy z dr. Konradem Majem, psychologiem z Uniwersytetu SWPS, który od lat śledzi społeczne skutki rozwoju nowych technologii. 

PIERWSZA CZĘŚĆ WYWIADU DOSTĘPNA TUTAJ >>>  To po cichu robi sztuczna inteligencja. Ekspert od AI ostrzega raz na zawsze

Tak nowoczesne technologie pomagają ludziom 

Wioleta Wasylów, dziennikarka serwisu ZłotePrzeboje.pl: Jakie są najważniejsze zalety sztucznej inteligencji? 

Dr Konrad Maj z Uniwersytetu SWPS: Potrafi ona naprawdę ułatwić codzienne życie: od drobnych rzeczy, jak poprawianie literówek czy filtrowanie spamu, po bardziej zaawansowane funkcje, jak personalizowane rekomendacje filmów, aplikacje zdrowotne czy tłumacze językowe. Dzięki AI szybciej dojedziemy do celu, dostaniemy propozycję treningu dopasowanego do naszej formy, a smartwatch ostrzeże nas, gdy serce bije nieregularnie.  

Dla wielu osób – szczególnie starszych czy z niepełnosprawnościami – to narzędzie realnie zwiększające samodzielność i komfort. Coraz częściej mówi się też o AI w roli emocjonalnego wsparcia – chatboty-terapeuci pomagają w lżejszych kryzysach, a proste roboty społeczne stają się towarzyszami dla samotnych osób. Jest z tym oczywiście związanych trochę kontrowersji, ale mądre tym zarządzanie może pomóc zmniejszyć różne problemy społeczne. 

Redakcja poleca

AI to też cichy strażnik naszego bezpieczeństwa. Pomaga lekarzom szybciej wykrywać choroby, ostrzega kierowców przed zagrożeniem na drodze i chroni konta bankowe przed oszustwami. W edukacji dostosowuje naukę do indywidualnych potrzeb, a w komunikacji niweluje bariery językowe. Największą zaletą AI jest chyba to, że robi swoje w tle – niewidocznie, ale skutecznie – oszczędzając nam czas, energię i często stres. Co ciekawe, badania pokazują, że tylko około 1/3 konsumentów uważa, że używa platform AI, podczas gdy faktycznie robi to ok. 77 proc. z nas.

"Ten system może zawieść"

Jakie są największe wady AI? 

Mimo wielu zalet, sztuczna inteligencja ma też poważne wady. Jedną z największych jest podatność na błędy i uprzedzenia – AI uczy się na danych, które bywają stronnicze. Przykładowo, system rekrutacyjny Amazona faworyzował mężczyzn, bo trenowano go na danych z branży zdominowanej przez nich. Podobne problemy ujawniono w algorytmach przyznających kredyty czy oceniających ryzyko przestępstwa – uprzedzenia rasowe czy płciowe potrafią w nich działać zupełnie nieświadomie. 

Sztuczna inteligencja często działa też jak "czarna skrzynka" – daje wynik, ale nie tłumaczy, dlaczego. A gdy coś pójdzie nie tak, nie wiadomo, gdzie leży błąd. To problem np. w medycynie: AI sugeruje diagnozę, ale lekarz musi wiedzieć, dlaczego, by zaufać i wziąć odpowiedzialność. 

AI nie ma zdrowego rozsądku – zdarzały się przypadki, że system rozpoznający obraz uznał żółwia za karabin (bo naklejono na skorupę wzór, który zmylił algorytm) albo tłumacz automatyczny przetłumaczył coś kompletnie na opak, bo wyrwał zdanie z kontekstu. 

Czy AI może też nieść zagrożenie dla prywatności? 

Zbiera mnóstwo danych o nas, często bez naszej pełnej świadomości. To budzi skojarzenia z "Wielkim Bratem", szczególnie gdy połączyć to z monitoringiem i rozpoznawaniem twarzy. Do tego dochodzi ryzyko uzależnienia od technologii – gdy AI podpowiada nam wszystko, od drogi do domu po słowa w SMS-ach, możemy powoli tracić niektóre umiejętności i stawać się bardziej bierni.  

Redakcja poleca

Dla mnie jako psychologa szczególnie niepokojące jest to, że automatyzacja zadań może powodować, że ludzki kontakt zostaje ograniczony. Np. zastąpienie człowieka infolinią AI może i jest efektywne, ale czasem frustrujące – brak empatii, zrozumienia dla nietypowej sytuacji. Może się pojawić dehumanizacja obsługi, co jest wadą szczególnie dotkliwą dla osób starszych czy mniej obytych z techniką. 

Wreszcie, jak każdy system, AI może zawieść – a im bardziej jej ufamy, tym większe konsekwencje takiego błędu (np. autopilot samolotu lub system sterujący elektrownią). Dlatego tak ważne jest, by rozwijać AI z odpowiedzialnością i świadomością jej ograniczeń. 

Czy sztucznej inteligencji trzeba się obawiać? 

Jakie jeszcze zagrożenia niesie za sobą AI? 

Zagrożenia związane z AI są bardzo zróżnicowane – od tych, które już nas dotyczą, po bardziej futurystyczne scenariusze. Już dziś AI wypiera ludzi z niektórych zawodów, co prowadzi do napięć społecznych i konieczności przekwalifikowań. Juwal Noach Harari, izraelski historyk i profesor na Wydziale Historii Uniwersytetu Hebrajskiego w Jerozolimie, mówi w tym kontekście o "bezużytecznych ludziach", których kompetencje zostaną przejęte przez AI, a oni sami nie będą w stanie z różnych powodów nabyć nowych. 

Jednocześnie sztuczna inteligencja potrafi generować realistyczne fałszywe treści – tzw. deepfaki – które mogą służyć manipulacji, dezinformacji i podważaniu zaufania społecznego. W rękach przestępców AI staje się narzędziem do oszustw (np. klonowanie głosu "wnuczka"), cyberataków czy omijania zabezpieczeń. Tego rodzaju przestępstwa dopiero się zaczynają. 

Innym zagrożeniem jest rosnąca autonomia sztucznej inteligencji – w medycynie, transporcie czy finansach system może popełnić błąd, którego człowiek nie zauważy, bo zbytnio zaufa algorytmowi. Na horyzoncie pojawiają się też kwestie militarne: rozwój autonomicznej broni wzbudza poważne obawy etyczne i polityczne.

Niby się wydaje sensowne, aby zamiast ludzi wysyłać na wojnę roboty, ale to niesie szereg niebezpieczeństw. Już dziś ONZ debatuje nad zakazem autonomicznej broni śmiercionośnej, bo pojawia się obawa, że algorytm może kiedyś "pociągnąć za spust" niewłaściwie, a rozliczenie kogoś z takiego czynu jest problematyczne. Kto będzie winien? Programista? Dowódca?

Redakcja poleca

Jakie są najbardziej skrajne wizje? 

Superinteligentna AI, która mogłaby kiedyś działać wbrew naszym interesom. Choć to na razie science fiction, coraz więcej ekspertów traktuje ten scenariusz poważnie. Nawet "ojciec chrzestny AI", Geoffrey Hinton, który współtworzył nowoczesne sieci neuronowe, teraz głośno mówi o swoich obawach: że AI może w niedalekiej przyszłości stać się mądrzejsza od nas i jeśli jej cele nie będą z nami zgrane, może dojść do fatalnego konfliktu.  

To oczywiście hipotetyczne rozważania – obecne systemy są jeszcze bardzo daleko od takiego poziomu – ale fakt, że takie ostrzeżenia padają, jest znamienny. Psychologicznie rzecz biorąc, strach przed zbuntowaną maszyną istnieje od dawna w popkulturze (np. Frankenstein), a teraz karmią go wypowiedzi ludzi z branży. Dlatego już teraz potrzebujemy odpowiedzialnych regulacji, kontroli i etycznych ram rozwoju AI – by nie stracić nad nią kontroli. 

AI versus ludzie 

Czy sztuczna inteligencja rzeczywiście może zagrozić przedstawicielom niektórych zawodów, a wręcz zająć ich miejsca?  

To jedno z najczęściej zadawanych pytań. Odpowiedź nie jest prosta. Tak, AI wypiera ludzi z niektórych zawodów – szczególnie tych powtarzalnych i schematycznych, jak wprowadzanie danych, proste programowanie, telemarketing czy obsługa klienta. Coraz więcej firm automatyzuje te zadania, bo AI działa szybciej i taniej. Ale jednocześnie powstają nowe zawody – związane z projektowaniem, nadzorowaniem i trenowaniem algorytmów. Raport Światowego Forum Ekonomicznego szacował, że choć AI mogła do 2025 r. zlikwidować ok. 85 mln miejsc pracy, to stworzy 97 mln nowych – tyle że wymagających innych kompetencji.

Redakcja poleca

Jak to wygląda w przypadku zawodów kreatywnych, takich jak muzyk? 

Tu sprawa jest ciekawsza. AI faktycznie komponuje muzykę – powstały utwory stylizowane na Mozarta czy nawet dokończona przez algorytm Dziesiąta Symfonia Beethovena. Istnieją też deepfaki głosów piosenkarzy – np. „AI Drake”. Ale choć te utwory brzmią poprawnie, często brak im "duszy" – emocji, kontekstu, autentyczności. 

Psychologicznie wiemy, że ludzi przyciąga historia artysty, przeżycie, kontakt na koncercie. Dlatego muzycy raczej nie znikną – ich rola się zmieni. Już teraz niektórzy traktują AI jak współkompozytora, narzędzie inspiracji. Zagrożone są raczej konkretne nisze, np. twórcy muzyki stockowej, gdzie liczy się cena i szybkość, nie emocje. Można więc powiedzieć: AI zmieni rynek pracy – ale nie odbierze nam w całości sensu pracy. Problemem nie jest sama technologia, tylko tempo zmian i zdolność społeczeństwa, by za nimi nadążyć. 

Zapewnienie zrównoważonego i bezpiecznego rozwoju AI

Jak zagrożenia związane ze sztuczną inteligencją zniwelować? 

Potrzebujemy działań na kilku poziomach – prawnych, technologicznych, edukacyjnych i etycznych. Kluczowa jest dobra regulacja: np. unijny Akt o AI ma zakazać najbardziej niebezpiecznych zastosowań, jak systemy inwigilacji czy nieprzetestowane narzędzia medyczne. Chodzi o to, by AI, zanim trafi do krytycznych obszarów życia, była dobrze przetestowana i nadzorowana. 

Potrzebne są też mechanizmy rozliczalności – obowiązek, by algorytm wyjaśniał swoje decyzje (np. dlaczego odmówił kredytu) oraz możliwość odwołania się. To zwiększa przejrzystość i zaufanie społeczne. W wielu miejscach powinien działać model "człowiek w pętli", czyli AI wspiera decyzję, ale człowiek ją ostatecznie zatwierdza – np. lekarz, analityk finansowy czy pilot. 

Redakcja poleca

Nie mniej ważna jest walka ze stronniczością, uprzedzeniami i błędami w danych – np. po wykryciu, że AI gorzej rozpoznaje twarze ciemnoskórych kobiet, firmy musiały poprawić swoje systemy, używając bardziej zróżnicowanych danych. Nie można dopuścić do tego, by AI dyskryminowała np. ze względu na płeć czy kolor skóry. Tu dużo zależy od jakości danych i zespołów, które te systemy i algorytmy tworzą – im bardziej różnorodne, tym mniejsze ryzyko uprzedzeń i większa szansa na wychwycenie potencjalnych błędów i biasów.  

AI muszą lepiej zrozumieć nie tylko "zwykli" ludzie, ale też politycy... 

Dr Konrad Maj: Na poziomie społecznym potrzebujemy edukacji: jak rozpoznać deepfake, jak chronić dane, jak świadomie korzystać z AI. To nie tylko chroni przed oszustwami, ale pozwala też wykorzystać AI do zwalczania jej ciemnych stron – np. algorytmy wykrywające fake newsy. Dodatkowo, jeśli automatyzacja zabiera pracę, trzeba ludzi wcześniej przygotować – przez programy przekwalifikowań czy nowe formy zabezpieczeń społecznych. 

A w skali globalnej? Tu potrzebne są porozumienia podobne do tych o broni jądrowej – np. w sprawie zakazu autonomicznej broni. Coraz więcej krajów i instytucji mówi wprost: bez wspólnych zasad sztuczna inteligencja może wymknąć się spod kontroli. Na szczęście świadomość tych zagrożeń rośnie – pytanie tylko, czy zdążymy działać wystarczająco szybko. 

Choć AI zrobiła ogromny postęp, nadal sporo wymaga poprawy – jeśli ma być naprawdę bezpieczna, sprawiedliwa i użyteczna. Przede wszystkim potrzebujemy większej transparentności. Dziś wiele systemów działa jak "czarna skrzynka" – dają wynik, ale nie wiemy, dlaczego. Wyjaśnialna AI (tzw. Explainable AI), która potrafi logicznie uzasadnić swoje decyzje, to klucz do zaufania i możliwości korekty błędów.

Redakcja poleca

Nad czym jeszcze trzeba popracować? 

Nad odpornością sztucznej inteligencji na błędy i manipulacje. Obecne modele bywają zaskakująco łatwe do oszukania, a nie powinny dać się nabrać na obrazek żółwia wyglądającego dla nich jak karabin. Kolejny obszar to lepsze rozumienie kontekstu i "zdrowy rozsądek" – dziś AI może płynnie rozmawiać, ale nadal zdarza jej się mówić rzeczy absurdalne, bo nie ma prawdziwego rozumienia świata.  

Potrzebne są też ulepszenia w interakcji z ludźmi – AI musi lepiej rozumieć emocje, intencje, dowcipy czy sarkazm. I wreszcie – ekologiczna efektywność. Trenowanie dużych modeli to ogromne zużycie energii, więc trzeba znaleźć sposoby, by AI była lżejsza i dostępniejsza dla mniejszych graczy. 

Nie mniej ważne są kwestie prawne i społeczne – czyli określenie odpowiedzialności za błędy AI oraz stworzenie spójnych norm i standardów dla różnych zastosowań. AI powinna też lepiej rozumieć ludzkie wartości, nie generować dezinformacji ani treści szkodliwych. No i potrzebujemy bardziej wyważonej komunikacji z opinią publiczną – mniej hype’u i mniej straszenia, więcej rzetelnej edukacji. Można powiedzieć, że AI nauczyła się już "czytać i pisać", ale teraz musi się nauczyć rozumieć ludzi, działać odpowiedzialnie i współżyć z nami w sposób przewidywalny i etyczny. To kolejne wielkie wyzwanie – ale bardzo potrzebne.

Kliknij tutaj i słuchaj naszego radia na żywo bez żadnych opłat na ZlotePrzeboje.pl!