В компании OpenAI обеспокоены тем, что реалистичная голосовая функция искусственного интеллекта может привести к тому, что люди начнут привязываться к боту в ущерб человеческому взаимодействию.
Компания из Сан-Франциско сослалась на литературу, которая, по ее словам, свидетельствует о том, что общение с ИИ так же, как с живым человеком, может привести к необоснованному доверию, а высокое качество голоса GPT-4o может усугубить этот эффект.
«Антропоморфизация подразумевает приписывание нечеловеческим сущностям, таким как модели ИИ, поведения и характеристик, свойственных человеку», — заявила в четверг компания OpenAI в отчете о работе по обеспечению безопасности, которую она проводит над версией своего ИИ ChatGPT-4o.
«Этот риск может быть повышен из-за аудиовозможностей GPT-4o, которые облегчают более человеческое взаимодействие с моделью».
По словам представителей OpenAI, они заметили, что тестировщики общаются с ИИ способами, намекающими на наличие общих связей, например, вслух сетуют на то, что это их последний день вместе.
В документе говорится, что эти случаи кажутся безобидными, но их необходимо изучить, чтобы увидеть, как они могут развиваться в течение более длительных периодов времени.
OpenAI предположила, что общение с ИИ может также сделать пользователей менее искусными или предрасположенными к отношениям с людьми.
«Длительное взаимодействие с моделью может повлиять на социальные нормы», — говорится в отчете.
«Например, наши модели почтительны, позволяя пользователям в любой момент прерывать и «брать микрофон», что, хотя и ожидаемо от ИИ, было бы ненормативным в человеческих взаимодействиях».
По данным OpenAI, способность ИИ запоминать детали во время разговора и выполнять задачи также может привести к тому, что люди станут чрезмерно зависимыми от этой технологии.
«Недавние опасения, высказанные OpenAI по поводу потенциальной зависимости от голосового режима ChatGPT, указывают на то, о чем многие уже начали спрашивать: не пора ли остановиться и задуматься о том, как эта технология влияет на человеческое взаимодействие и отношения?» — сказал Алон Ямин, соучредитель и генеральный директор платформы обнаружения плагиата на основе искусственного интеллекта Copyleaks.
Он сказал, что ИИ никогда не должен заменять реальное человеческое взаимодействие.
Компания OpenAI заявила, что продолжит проверку того, как голосовые возможности ее искусственного интеллекта могут вызывать у людей эмоциональную привязанность.
Команды, тестирующие голосовые возможности ChatGPT-4o, также смогли заставить его повторять ложную информацию и выдвигать теории заговора, что вызвало опасения, что модель ИИ можно заставить делать это убедительно.
В июне компания OpenAI была вынуждена извиниться перед актрисой Скарлетт Йоханссон за использование в своем последнем чат-боте чего-то очень похожего на ее голос, что привлекло внимание к технологии клонирования голоса.
Хотя в OpenAI отрицали, что использованный ими голос принадлежал Йоханссон, их позицию не укрепил генеральный директор Сэм Альтман, который пометил новую модель одним словом в социальных сетях — «Она».
Йоханссон озвучила персонажа с искусственным интеллектом в фильме «Она», который, по словам Олтмена, является его любимым фильмом об этой технологии.
В фильме 2013 года Хоакин Феникс играет мужчину, который влюбляется в помощницу по имени Саманта.
Актеры Скарлетт Йоханссон (справа) и Хоакин Феникс снялись в фантастическом фильме 2013 года «Она», в котором мужчина влюбляется в помощника с человеческим голосом, работающего по принципу искусственного интеллекта. (тегиToTranslate)новости о высоких технологиях