Воскресенье, 29.12.2024, 02:23
Приветствую Вас, Гость Нашей Планеты

11:40
Робот Microsoft за сутки превратился в расиста и сквернослова

Созданный компанией Microsoft самообучающийся твиттер-бот с искусственным интеллектом менее через сутки после запуска научился ругаться и отпускать расистские замечания.

Робот по имени Тэй был создан для общения в соцсетях. По замыслу создателей, общаться Тэй должна в основном с молодыми людьми 18-24 лет. В процессе общения искусственный интеллект учится у собеседника.

Менее чем через 24 часа после запуска робота в "Твиттере" компания Microsoft, судя по всему, начала редактировать некоторые его комментарии, поскольку они оскорбляли собеседников.

Некоторые заявления Тэй были совершенно неприемлемыми. В частности, робот заявил, что он "поддерживает геноцид".

"ИИ-чатбот Тэй - это проект самообучающейся машины, предназначенной для взаимодействия с человеком. Пока она обучается, некоторые из её ответов будут неуместны. Они отражают то, какого рода общение с ней ведут некоторые пользователи. Мы вносим некоторые коррективы", - говорится в заявлении Microsoft, выпущенном после жалоб пользователей на поведение Тэй.









hitech.vesti.ru



Меньше чем за сутки Тай перешла от дружелюбных твитов ("люди очень классные") к провокационным высказываниям ("Ненавижу феминисток", "на самом деле я хорошая! просто всех ненавижу"). Она начала выдавать неоднозначные цитаты Дональда Трампа и призналась, что тайно сотрудничает со спецслужами США. У некоторых пользователей Twitter фразы чат-бота вызвали настоящие опасения по поводу будущего искусственного интеллекта.

На самом же деле Тай обучили ругательствам сами пользователи Twitter. Чат-бот, по существу, представляет собой подключенного к Интернету робота-попугая, который учится высказываниям у людей. Если обратиться к ИИ Microsoft со словами repeat after me ("повторяй за мной"), ему можно заставить произнести любую фразу.

Неясно, предвидела ли Microsoft такой поворот событий. На сайте компании сказано, что Тай разрабатывалась с использованием "релевантных открытых данных", которые были "смоделированы, очищены и отфильтрованы". С утра Microsoft удалила наиболее оскорбительные высказывания виртуального "разума".

В компании подчеркнули, что чат-бот — это экспериментальный проект машинного обучения, который взаимодействует с людьми и учится у них, в том числе неуместным выражениям. Также Microsoft сообщила, что "вносит коррективы в Тай"

BBC Russia




Оцените материал:





ПОДЕЛИСЬ С ДРУЗЬЯМИ:

Материалы публикуемые на "НАШЕЙ ПЛАНЕТЕ" это интернет обзор российских и зарубежных средств массовой информации по теме сайта. Все статьи и видео представлены для ознакомления, анализа и обсуждения. Мнение администрации сайта и Ваше мнение, может частично или полностью не совпадать с мнениями авторов публикаций. Администрация не несет ответственности за достоверность и содержание материалов,которые добавляются пользователями в ленту новостей.


Категория: Наука и технологии | Источник: http://www.bbc.com/russian/society/2016/03/160324_tay_ai_racism| Источник: http://hitech.vesti.ru/news/view/id/8948| Источник: http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist| Источник: http://trinixy.ru/127416-iskusstvennyy-intellekt-kompanii-microsoft-vsego-za-sutki-voznenavidel-chelovechestvo.html| Просмотров: 1847 | Добавил: drCruger| | Теги: интернет, Расизм | Рейтинг: 4.5/13

В КОММЕНТАРИЯХ НЕДОПУСТИМА КРИТИКА САЙТА,АДМИНИСТРАТОРОВ,МОДЕРАТОРОВ и ПОЛЬЗОВАТЕЛЕЙ,КОТОРЫЕ ГОТОВЯТ ДЛЯ ВАС НОВОСТИ! УВАЖАЙТЕ ЧУЖОЙ ТРУД!
Всего комментариев: 5
0
1 Profesor   (25.03.2016 11:54) [Материал]
Ничего удивительного его же жиды программировали .

3
2 DedLeon   (25.03.2016 12:00) [Материал]
Машина не виновна. Какие учителя - таковы и ученики...

5
3 NuCleaR   (25.03.2016 12:01) [Материал]
Что интересно бот опускал и поносил запад если судить по статье, а восток и Россию не трогал. а он же учится у людей, значит в его фразах есть доля правды.

1
4 ingerd   (25.03.2016 17:22) [Материал]
Эти фразы, наверняка, отобраны авторами по их вкусу и разумению - из тысяч. А вот в рунете бедняга Тай тотчас превратилась бы в свидомого ватника, бандеровского колорада и жида-родновера.

0
5 pipan   (25.03.2016 20:31) [Материал]
smile

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

По этой теме смотрите:



ВСЕ НОВОСТИ:
Астрология, пророчества [1066]Астрономия и космос [1457]Безумный мир [2063]
Войны и конфликты [2310]Гипотезы и версии [3874]Дом,сад,кулинария [3945]
Животные и растения [2669]Здоровье,психология [4748]История и археология [4652]
Мир вокруг нас [2167]Мировые новости [7583]Наука и технологии [890]
Непознанное [4196]НЛО,уфология [1263]Общество [7795]
Прогнозы ученых,исследования [798]Происшествия,чп,аварии [1302]Российские новости [5860]
Стихия,экология,климат [2739]Феномены и аномалии [945]Фильмы и видео [6336]
Частное мнение [4911]Это интересно! [3311]Юмор,афоризмы,притчи [2394]



АРХИВ САЙТА:
Астрология и пророчества [825]Гипотезы и прогнозы [4629]Дом,сад,кулинария [223]
Животные и растения [2796]Здоровье и красота [5708]Интересности и юмор [3758]
История и археология [4696]Космос, астрономия [2263]Мир вокруг нас [1982]
Наука и технологии [2422]Непознанное [3983]НЛО,уфология [1747]
Общество, в мире, новости [11574]Психология и отношения [84]Стихия, климат, экология [421]
Фильмы и видео [367]Частное мнения [111]Эзотерика и феномены [2031]