European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Article Category

Article available in the following languages:

Zagrożenia związane z rozwojem sztucznej inteligencji

„Ojciec chrzestny sztucznej inteligencji” odchodzi z firmy Google, aby ostrzec przed związanymi z nią niebezpieczeństwami.

Badania podstawowe icon Badania podstawowe

Dnia 1 maja informatyk Geoffrey Hinton ogłosił swoją rezygnację z pracy w firmie Google w związku z obawami dotyczącymi technologii, w opracowaniu której pomagał. Martwi go rosnący poziom inteligencji technologii. Dr Hinton należy do coraz szerszego grona wpływowych osób podnoszących alarm w związku z nową grupą chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT. „Z tego, co wiem, na chwilę obecną nie przewyższają nas one swoją inteligencją. Sądzę jednak, że wkrótce może do tego dojść”, powiedział w wywiadzie dla BBC. „Widzimy, że w ilości wiedzy ogólnej, jaką dysponuje, model GPT-4 przyćmiewa człowieka – i to w dość znacznym stopniu. Jeśli zaś chodzi o rozumowanie, w tej kwestii pozostaje w tyle, choć jest już zdolny do prostego wnioskowania. A biorąc pod uwagę tempo postępu, możemy się spodziewać szybkiej poprawy na tym polu. Jest więc się czym martwić”.

Zrozumieć nowe zagrożenia

Rozwój sztucznej inteligencji stanowi „poważne zagrożenie dla społeczeństwa i ludzkości”, stwierdził dr Hinton w rozmowie dla „The New York Times”. „Wystarczy porównać sytuację sprzed pięciu lat ze stanem obecnym. Pomnóżmy powstałą różnicę, rzutując ją na przyszłość. To przerażające. Trudno ocenić, jak można zapobiec wykorzystaniu jej przez osoby o złych zamiarach do niewłaściwych celów”. Dalej mówi: „Tylko nieliczni wierzyli w to, że może ona przewyższyć inteligencją ludzi. Większość ludzi sądziła, że jest to dalekie od spełnienia. Też tak uważałem. Myślałem, że zajmie to jakieś 30–50 lat, a nawet dłużej. Oczywiście wcale już tak nie sądzę”. Nie chodzi tylko o inteligencję. Na tym etapie sytuacja robi się niepokojąca. Sztuczna inteligencja może manipulować ludźmi, a nawet znaleźć sposób na ich eksterminację. „Jeśli sztuczna inteligencja stanie się dużo mądrzejsza od nas, będzie bardzo dobra w manipulacji, ponieważ nauczy się tego od nas, a istnieje bardzo niewiele przykładów kontrolowania bardziej inteligentnego bytu przez mniej inteligentny”, wyjaśnił dr Hinton w transmitowanym na żywo wywiadzie dla CNN. „Wie, jak programować, więc znajdzie sposoby na obejście ograniczeń, które na nią nałożyliśmy. Znajdzie sposoby na manipulowanie ludźmi, aby robili to, czego chce”. Jakie jest zatem rozwiązanie? „Nie jest dla mnie jasne, czy możemy jakoś rozwiązać ten problem. Uważam, że powinniśmy dołożyć wszelkich starań, aby rozważyć możliwe sposoby na jego rozwiązanie. Na chwilę obecną nie znajduję żadnego wyjścia z tej sytuacji”.

Może zróbmy krok w tył?

W marcu Elon Musk, miliarder z branży technologicznej, wraz z kilkoma ekspertami zaapelowali o zahamowanie rozwoju systemów sztucznej inteligencji. Powinno to zapewnić czas potrzebny na zagwarantowanie ich bezpieczeństwa. Premiera GPT-4, znacznie potężniejszej wersji technologii używanej przez ChatGPT, doprowadziła do wystosowania listu otwartego podpisanego przez ponad 1000 osób działających w branży sztucznej inteligencji, w tym Muska i współzałożyciela firmy Apple, Steve'a Wozniaka. Co ciekawe, dr Hinton nie złożył pod nim swojego podpisu. „Nie sądzę, abyśmy mogli zatrzymać postęp”, powiedział w wywiadzie dla CNN. „Nie podpisałem petycji nawołującej do zaprzestania prac nad sztuczną inteligencją, ponieważ jeśli naukowcy w Ameryce wstrzymają swoje działania, ich chińscy odpowiednicy wcale nie wezmą z nich przykładu”.

Słowa kluczowe

sztuczna inteligencja, Google, Geoffrey Hinton, technologia, chatbot, ChatGPT, GPT-4, inteligencja