Ученый заявил, что ChatGPT может быть опаснее ядерного оружия
Модель искусственного интеллекта (ИИ) ChatGPT и другие подобные модели могут быть опаснее ядерного оружия. Если человек не сможет их контролировать, то сами нейросети могут стать автором более умного искусственного интеллекта. Так писатель, историк и автор известной книги «Sapiens: Краткая история человечества» Юваль Ной Харари сравнил нейросети с оружием массового поражения в статье для The Economist.
Как сообщает «Лента.ру», ученый напомнил, что ИИ может саморазвиться вне контроля человека. «В то время как ядерные бомбы не могут сами изобрести более мощное ядерное оружие, искусственный интеллект может создать экспоненциально более мощный искусственный интеллект», — предупредил Харари, отметив, что ИИ может и даже должен использоваться для благих целей, вроде поиска лекарства от онкологических заболеваний или разрешения проблем экологии.
По его мнению, в будущем нейросети могут использоваться и для создания полноценного «политического контента и фейковых ироничных новостей», что несет за собой дополнительные опасности для стабильного существования человеческого общества.