Развитие искусственного интеллекта необходимо замедлить. Но не из-за рисков "восстания машин", а из-за вполне обыденной проблемы роста и развития мошеннических схем. Такого мнения придерживается сооснователь Apple Стив Возняк, передает Fortune.
Известный американский изобретатель, инженер-электронщик и программист подписал письмо с призывом к приостановке развития больших языковых моделей и технологий искусственного интеллекта наподобие ChatGPT. По его словам, чат-боты и другие проекты, использующие нейросеть, могут быть использованы "плохими людьми в злых целях".
"Посмотрите, сколько плохих людей заваливают нас спамом, пытаются получить наши пароли, завладеть нашими аккаунтами и испортить нам жизнь. Теперь ИИ — это еще один более мощный инструмент, и он будет использоваться этими людьми в действительно злых целях, и я ненавижу, когда технологии используются таким образом. (...)
Что, если бы мы разработали интернет с протоколами, по которым вы всегда можете идентифицировать кого угодно и поэтому спам был бы почти невозможен? Что, если мы воспользуемся шансом откинуться на спинку стула и немного подумать об ИИ перед тем, как он появится?", — отметил Возняк.
Он признает, что шанса замедлиться фактически нет, однако необходимо помнить об ответственности при развитии технологий. Предприниматель призвал заняться регулированием отрасли. Новые инструменты не должны мешать растущему бизнесу, но они покажут зрелость, ответственность и этику компаний.
Несмотря на свои предупреждения, Стив Возняк не считает искусственный интеллект угрозой человечеству. Для него ИИ действительно может сделать "много хороших вещей" в мире. Инженер говорит, что он открыт для изменений и выступает только против инструментов, которые могут использовать нечестные люди в мошеннических целях.
***
Стив Возняк один из тех, кто подписал письмо с требованием ввести шестимесячный мораторий на развитие ИИ. Открытое письмо, подписанное Илоном Маском и тысячами других людей из сферы технологий, призывает сделать перерыв в развитии нейросетей, чтобы разработать системы безопасности.