OpenAI передає дані користувачів правоохоронцям у разі "підозрілих слів" у чатах
У ChatGPT діє система відстеження повідомлень, яка може передавати підозрілі чати до правоохоронців
Про це повідомляє Futurism, передає RegioNews.
Компанія OpenAI використовує внутрішні механізми для моніторингу спілкування в ChatGPT. У сервісі діє фільтр, який реагує на окремі "тригери" чи ключові слова, що можуть свідчити про потенційний злочин.
Виявлені повідомлення спочатку надходять до групи модераторів компанії. Вони аналізують зміст діалогу та визначають, чи становить він реальну загрозу для людей або може вказувати на підготовку до протиправних дій. Якщо така загроза підтверджується, OpenAI ухвалює рішення передати інформацію до правоохоронних органів.
Експерти відзначають, що подібні системи впроваджуються з метою запобігання небезпечним ситуаціям. Водночас питання конфіденційності та меж втручання у приватне спілкування користувачів залишається дискусійним.
Раніше повідомлялося, Верховна Рада готує законопроєкт, який легалізує використання штучного інтелекту студентами у вишах. Документ передбачає можливість застосування ШІ при написанні академічних робіт за умови обов’язкового зазначення цього у тексті.
Підписуйся, щоб дізнаватись новини першим












