Гугл обеспокоен использованием чат-ботов в дочерней Alphabet. Под подозрением даже собственный Bard. Впрочем, прочему миру ИИ активно втюхивается.
Гугл посоветовал сотрудникам не вводить собственные конфиденциальные данные в чат-боты. Политика объясняется безопасностью, пишет xrust. Ведь тестировщики ИИ выявили изумительную вещь – плоды обучения иногда используются Bard и ChatGPT. Другими словами, настраивая чат-бот путем использования собственных жизненных фактов, вы можете сделать их достоянием «вселенной».
Однако, самое несимпатичное – предупреждение относительно бездумного применения программ, генерируемых чат-ботами. Их следует тщательно анализировать. Они, конечно, помогают программистам, но требуют особого внимания. К сожалению Гугл (Google — поисковая система), предупреждая сотрудников, не допустил утечки фактов в интернет.
Настораживая персонал, Google влечётся навредит бизнесу программным обеспечением. Ведь скомпрометировав себя, корпорация потеряет многомиллиардные инвестиции, которые уйдут OpenAI и Microsoft.
Приметим, что такая настороженность Гугла отражает общую тенденцию – корпорации уже начали предупреждать контингент, работающий с ИИ. Например, Samsung, Amazon, Deutsche_Bank ограничили перечень проблем, решаемых искусственным интеллектом.
Другие новости. Украина наступает – здесь. Германия боится лишиться российского газа – тут. Самый большой камень в почках – там.
Гугл предупредил сотрудников о кое-какой неадекватности чат-ботов
Оригинал статьи размещен в Новости Xrust