Чат-боты на основе ИИ станут еще больше похожими на людей: в чем риски

Чат-боты на базе искусственного интеллекта скоро достигнут такого уровня, что их будет сложно отличить от людей. Однако эта технология несет в себе некоторые риски.

Об этом пишет The Sun.

Один из ведущих экспертов по кибербезопасности Роджер Граймс рассказал, что чат-боты, такие как ChatGPT от OpenAI или Gemini от Google, могут значительно облегчить выполнение рутинных задач. Компании внедряют их для решения простых (а порой и сложных) проблем поддержки клиентов.

Часть этого — создание чат-ботов на основе искусственного интеллекта, которые будут говорить более естественно, как человек, и отличить их от реальных людей будет большой проблемой.

Многие эксперты предупреждают об опасностях, которые несет передовой искусственный интеллект, и о том, как киберпреступники могут использовать его для обмана потенциальных жертв.

Однако Роджер сказал, что, по его мнению, тот факт, что чат-боты становятся все более похожими на людей, в целом является положительным явлением.

Кроме того, у большинства смартфонов теперь есть встроенные элементы искусственного интеллекта, а такие сервисы, как Google, выдают ответы даже при выполнении простых поисковых запросов в интернете.

Об опасностях, связанных с обманом и ИИ, речь идет о рисках, начиная с дипфейков и заканчивая кибератаками, в которых преступники используют ИИ.

Кроме того, известно, что чат-боты «галюцинируют» и выдают совершенно ложную информацию. Этих ошибок не допустил бы человек.