Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Гугл обеспокоен использованием чат-ботов в дочерней Alphabet. Под подозрением даже собственный Bard. Впрочем, прочему миру ИИ активно втюхивается.

Гугл посоветовал сотрудникам не вводить собственные конфиденциальные данные в чат-боты. Политика объясняется безопасностью, пишет xrust. Ведь тестировщики ИИ выявили изумительную вещь – плоды обучения иногда используются Bard и ChatGPT. Другими словами, настраивая чат-бот путем использования собственных жизненных фактов, вы можете сделать их достоянием «вселенной».

Однако, самое несимпатичное – предупреждение относительно бездумного применения программ, генерируемых чат-ботами. Их следует тщательно анализировать. Они, конечно, помогают программистам, но требуют особого внимания. К сожалению Гугл (Google — поисковая система), предупреждая сотрудников, не допустил утечки фактов в интернет.

Настораживая персонал, Google влечётся навредит бизнесу программным обеспечением. Ведь скомпрометировав себя, корпорация потеряет многомиллиардные инвестиции, которые уйдут OpenAI и Microsoft.

Приметим, что такая настороженность Гугла отражает общую тенденцию – корпорации уже начали предупреждать контингент, работающий с ИИ. Например, Samsung, Amazon, Deutsche_Bank ограничили перечень проблем, решаемых искусственным интеллектом.

Другие новости. Украина наступает – здесь. Германия боится лишиться российского газа – тут. Самый большой камень в почках – там.

Гугл предупредил сотрудников о кое-какой неадекватности чат-ботов

Оригинал статьи размещен в Новости Xrust

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: