Юрист использовал ChatGPT для работы, и поэтому сам предстанет перед судом
Адвокат из Нью-Йорка Стивен Шварц использовал ChatGPT для подготовки документов по делу. В результате он предоставил суду ссылку на вымышленные нейросетью подобные случаи судебных процессов. Как сообщает The New York Times, теперь суд рассматривает «потенциальные меры наказания» для самого адвоката.
OpenAI предупреждает, что ChatGPT может предоставлять неточную информацию — нейросеть все придумывала фальшивые газетные статьи, неверные утверждения о том, что профессор права был вовлечен в скандал с сексуальными притязаниями, а мэр Австралии был замешан в скандале со взяточничеством.
Кроме того, как отдельные люди, так и крупные корпорации озабочены тем, как используются данные. Например Samsung запретила своим сотрудникам использовать генеративные инструменты искусственного интеллекта из-за опасений относительно того, как данные хранятся на внешних серверах, и из-за риска того, что секреты компании в конце концов могут быть раскрыты другим пользователям.
Однако, как видим, многие люди, далекие от понимания всех рисков использования нейросетей в работе, продолжают полагаться на искусственный интеллект. И в редких случаях это может больше навредить, чем помочь.