Grammarly Столкнулась с Иском из-за Несанкционированного Использования Имён Экспертов в Инструменте ИИ

3

Grammarly, популярная платформа для помощи в написании текстов, принадлежащая Superhuman, оказалась в центре коллективного иска, обвиняющего компанию в несанкционированном использовании имён и личностей известных людей в новой функции на основе ИИ под названием «Expert Review» (Экспертная Проверка). Иск, поданный в Окружной суд Южного округа Нью-Йорка, утверждает, что компания присвоила себе изображения журналистов, авторов и других профессионалов – включая Джулию Ангвин, ведущего истца и основателя некоммерческой новостной организации The Markup – чтобы придать доверие рекомендациям своего ИИ-редактора.

Суть Спора

В центре иска стоит решение Grammarly представлять сгенерированные ИИ отзывы так, будто они исходят непосредственно от известных экспертов без их согласия. Это включало использование имён таких людей, как Стивен Кинг и Нил Деграсс Тайсон в качестве виртуальных редакторов, практика, которая вызвала немедленную критику после раскрытия. Несмотря на отказ от ответственности, в котором утверждается, что эти эксперты не поддерживают инструмент, подразумевалось, что пользователи получали обратную связь от надёжных источников.

Superhuman с тех пор прекратила использование функции после общественной критики, заявив, что «переосмыслит» её, чтобы дать экспертам больше контроля над их представлением. Однако иск утверждает, что ущерб уже нанесён, заявляя, что убытки для истцов превышают 5 миллионов долларов.

Правовые и Этические Проблемы

Правовая основа иска опирается на давние законы Нью-Йорка и Калифорнии, запрещающие коммерческое использование имени и изображения человека без разрешения. По словам Питера Ромера-Фридмана, адвоката Ангвин, дело юридически прямолинейно. В более широком смысле иск поднимает важные вопросы об этике ИИ-платформ, использующих чужую репутацию без согласия.

Речь идёт не просто об одобрении знаменитостей; речь идёт о присвоении лет тяжёлого труда и заслуженной репутации. Как сама Ангвин отметила, это напоминает сценарий с «дипфейком», где личность клонируется в коммерческих целях. Это дело подчёркивает, как быстро инструменты ИИ могут размывать границы между реальным авторитетом и смоделированной экспертизой.

Более Широкие Последствия

Иск происходит в то время, когда инструменты на основе ИИ всё чаще используются для имитации человеческих навыков и экспертизы. Эта тенденция вызывает опасения по поводу интеллектуальной собственности, профессиональной честности и потенциала для распространения дезинформации. Если компании могут свободно эксплуатировать репутацию без ответственности, это подрывает доверие как к технологии, так и к людям, чьи изображения используются неправомерно.

Исход этого дела, вероятно, установит прецедент для того, как ИИ-платформы ориентируются в этических и юридических границах использования человеческой экспертизы, особенно по мере того, как эти инструменты становятся всё более интегрированными в повседневные рабочие процессы.

В конечном счёте, иск подчёркивает необходимость более строгих правил и большей прозрачности в том, как ИИ-компании используют и представляют человеческие личности в своих продуктах. Будущее инструментов на основе ИИ может зависеть от того, смогут ли они действовать этично, не прибегая к несанкционированному присвоению чужих достижений.