Липчан предупредили, чем могут обернуться откровения с ИИ - прогноз экспертов

В последние годы использование искусственного интеллекта в повседневной и деловой жизни стало массовым трендом. Однако вопросы о приватности и безопасности данных, связанных с взаимодействием с нейросетями, только начинают обсуждаться на законодательном уровне.

16:57, вчера
32

Читать все комментарии

Войдите, чтобы добавить в закладки

Например, новость о том, что компания OpenAI может раскрыть логи пользователей ChatGPT по запросу суда, вызвала большой интерес и опасения в России.

Глава OpenAI Сэм Альтман недавно заявил, что в случае судебного запроса компания будет обязана предоставить записи диалогов пользователей. Это решение обусловлено отсутствием четких международных и национальных правил, касающихся защиты таких данных. OpenAI хранит эти данные в течение 30 дней и может использовать их для улучшения сервиса, что также поднимает вопросы о конфиденциальности.

В России, в процессе разработки нового Цифрового кодекса, эксперты отмечают аналогичные проблемы с защитой данных в области ИИ. Вице-спикер Госдумы Александр Бабаков подчеркнул важность строгого регулирования работы нейросетей в интересах нации, чтобы избежать неконтролируемого доступа к данным. Он считает, что не все можно доверить рынку и необходимо четкое законодательство для эффективного внедрения ИИ.

Сенатор Артем Шейкин отметил, что доступ судов и правоохранительных органов к переписке пользователей с нейросетями остается спорным и недостаточно урегулированным вопросом. Многие пользователи добровольно предоставляют свои данные, что увеличивает риск утечек и несанкционированного доступа.

В России нет конкретного закона о защите переписки с нейросетями, но действующее законодательство позволяет правоохранительным органам запрашивать такую информацию по мере необходимости, особенно в рамках уголовных дел и вопросов безопасности.

Новости других СМИ