Грамматика вызывает споры из-за несанкционированного использования личных данных писателей

Новая функция Grammarly «Экспертный обзор» столкнулась с негативной реакцией из-за использования имен и личных данных авторов без разрешения. Теперь компания предлагает возможность отказа, но критики говорят, что ущерб уже нанесен.
Grammarly, популярный инструмент для помощи в грамматике и письме, оказался в центре разногласий после того, как выяснилось, что компания использовала личные данные авторов без их разрешения в своей новой функции «Экспертный обзор». Эта функция была разработана для предоставления отзывов и предложений, генерируемых искусственным интеллектом, но для этого она приписывала отзывы реальным авторам, включая автора The Verge Нилая Пателя, Дэвида Пирса и Тома Уоррена.
Проблема впервые обнаружилась, когда команда The Verge заметила, что Grammarly превратила Нилая Пателя в «редактора с искусственным интеллектом», используя его настоящее имя, даже не спрашивая его согласия. Как оказалось, эта практика не ограничивалась сотрудниками The Verge; Wired сообщил, что Grammarly сделала то же самое со многими другими известными авторами, эффективно используя их репутацию, чтобы повысить доверие к отзывам, генерируемым искусственным интеллектом.
Grammarly отреагировала на негативную реакцию, но ее реакция оказалась далеко не удовлетворительной для многих критиков. Вместо того, чтобы извиняться или отказываться от этой функции, компания просто предлагает авторам возможность отказаться от использования их личных данных таким образом. Однако это мало что дает для решения проблем тех, кто уже подвергся такой практике без их ведома и согласия.
Эта проблема поднимает важные вопросы об этичном использовании искусственного интеллекта и правах отдельных лиц, особенно общественных деятелей, контролировать использование их личных данных. Хотя Grammarly, возможно, намеревалась использовать функцию «Экспертный обзор», чтобы предоставить пользователям более авторитетную обратную связь, несанкционированное использование имен авторов подверглось широкой критике как вводящая в заблуждение и неэтичная практика.
Этот спор подчеркивает необходимость того, чтобы компании, разрабатывающие инструменты на базе искусственного интеллекта, были прозрачными в своей практике и получали явное согласие от отдельных лиц, прежде чем каким-либо образом использовать их личности или изображения. Поскольку технология ИИ продолжает развиваться, и разработчикам, и пользователям будет крайне важно осторожно ориентироваться в этих этических водах, гарантируя, что преимущества этих технологий не перевешиваются потенциальным злоупотреблением или нарушением прав личности.
Несмотря на попытку Grammarly решить эту проблему, ущерб уже нанесен, и в результате этого инцидента компания может столкнуться с дальнейшим вниманием и критикой. Поскольку использование ИИ в различных приложениях становится все более распространенным, и компаниям, и потребителям будет важно сохранять бдительность и выступать за ответственное и этичное развитие этих мощных технологий.
Источник: The Verge


