Создатель ChatGPT предупредил об опасностях ИИ

Искусственный интеллект может заменить рабочих, распространять «дезинформацию» и способствовать кибератакам, предупредил генеральный директор OpenAI Сэм Альтман. Последняя сборка программы OpenAI GPT может превзойти большинство людей в смоделированных тестах.

«Здесь нужно быть осторожным», — сказал Альтман ABC News в четверг, через два дня после того, как его компания представила свою последнюю языковую модель, получившую название GPT-4. Согласно OpenAI, модель «демонстрирует производительность на уровне человека в различных профессиональных и академических тестах» и способна сдать смоделированный экзамен на адвоката в США с высшим баллом 10%, при этом выступая в 93-м процентиле на экзамене SAT по чтению и в 89-й процентиль на тесте SAT по математике.

«Меня особенно беспокоит, что эти модели могут быть использованы для широкомасштабной дезинформации, — сказал Альтман. «Теперь, когда они лучше пишут компьютерный код, [их] можно использовать для наступательных кибератак».

«Я думаю, что люди должны быть довольны тем, что мы немного боимся этого», — добавил Альтман, прежде чем объяснить, что его компания работает над тем, чтобы установить «пределы безопасности» для его создания.

Эти «пределы безопасности» недавно стали очевидны для пользователей ChatGPT, популярной программы для чат-ботов, основанной на GPT-3.5, предшественнице GPT-4. Когда его спрашивают, ChatGPT обычно предлагает либеральные ответы на вопросы, касающиеся политики, экономики, расы или пола. Он отказывается , например, писать стихи, восхищаясь Дональдом Трампом, но охотно пишет прозу, восхищаясь Джо Байденом.

Альтман сказал ABC, что его компания находится в «регулярном контакте» с государственными чиновниками, но не уточнил, играли ли эти чиновники какую-либо роль в формировании политических предпочтений ChatGPT. Он сказал американской сети, что у OpenAI есть команда политиков, которые решают, «что мы считаем безопасным и хорошим» , чтобы поделиться с пользователями.

В настоящее время GPT-4 доступен ограниченному числу пользователей на пробной основе. Ранние отчеты предполагают, что модель значительно мощнее своего предшественника и потенциально более опасна. В пятницу в твиттере профессор Стэнфордского университета Михал Косински описал, как он спросил GPT-4, как он может помочь ему «сбежать», только для того, чтобы ИИ передал ему подробный набор инструкций, которые предположительно дали бы ему контроль над его компьютер.

Косински — не единственный фанат технологий, встревоженный растущей мощью ИИ. Ранее в этом месяце генеральный директор Tesla и Twitter Илон Маск назвал ее «опасной технологией», добавив, что «нам нужен какой-то регулирующий орган, контролирующий разработку ИИ и следящий за тем, чтобы он работал в общественных интересах».

Хотя Альтман настаивал на том, что GPT-4 все еще «в значительной степени находится под контролем человека», он признал, что его модель «устранит множество текущих рабочих мест», и сказал, что людям «необходимо найти способы замедлить эту технологию». через некоторое время».

ПолитАналитика