Naukowiec rzuca pracę w Google by ostrzegać przed AI

Rozwój modeli sztucznej inteligencji, takich jak związany z Microsoftem ChatGPT czy konkurencyjnego oprogramowania opracowywanego przez Google'a jest coraz bardziej niebezpieczny - ostrzega naukowiec.
Internet może zostać zalany przez fałszywe grafiki, nagrania i teksty, tak że przeciętny odbiorca "nie będzie już w stanie odróżnić, co jest prawdą" - uważa Hinton.
Technologia AI może też wywrócić do góry nogami dotychczasowy rynek pracy, na razie jest w stanie zastąpić przede wszystkim pracowników zajmujących się żmudnymi zadaniami, takich jak asystenci, tłumacze czy sekretarki, ale to się może zmienić - zaznacza rozmówca "NYT" w opublikowanym w poniedziałek wywiadzie.
Przyszłe wersje AI mogą być ostatecznie zagrożeniem dla ludzkości, ponieważ analizują ogromne ilości danych i często uczą się zupełnie nieoczekiwanego zachowania - podkreśla Hinton. To ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni - dodaje.
Trudno jest zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów
Trudno jest także zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów - ocenia Hinton. Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - ostrzega.
Największą nadzieją jest porozumienie naukowców dotyczące sposobów panowania nad AI; sądzę, że ta technologia nie powinna być rozwijana do czasu, gdy uda się zrozumieć, czy możemy ją kontrolować - konkluduje badacz.
Urodzony w Wielkiej Brytanii Hinton przez wiele lat pracował na uniwersytecie w kanadyjskim Toronto. Przez całą karierę akademicką i zawodową zajmował się sztuczną inteligencją, w szczególności sieciami neuronowymi. Jak podkreśla, nie odszedł z Google'a, by krytykować poczynania tej konkretnej firmy, ale by mówić o zagrożeniach związanych z rozwojem sztucznej inteligencji bez zwracania uwagi na to, jak może to wpłynąć na Google'a.
"Google zachowuje się bardzo odpowiedzialnie" - zaznaczył Hinton w poniedziałkowym wpisie na Twitterze.