Пятница, 27.12.2024, 18:15
Приветствую Вас, Гость Нашей Планеты

21:25
Должны ли правительства сдерживать разработки сверхинтеллектуального ИИ?
Изобретение искусственного интеллекта было центральной темой в научной фантастике, по крайней мере, с 19-го века. От рассказа Э.М. Форстера «Остановка машин» (1909) до недавнего телесериала HBO «Западный мир» писатели склонны изображать эту возможность как безудержную катастрофу.

Но этот вопрос больше не является выдумкой. Выдающиеся современные ученые и инженеры теперь также обеспокоены тем, что супер-ИИ однажды может превзойти человеческий интеллект и стать «худшей ошибкой» человечества.

Нынешние тенденции говорят о том, что человечество собирается вступить в международную гонку вооружений за такую ​​технологию. Какая бы высокотехнологичная компания или правительственная лаборатория не изобрела первый ИИ, она получит потенциально доминирующую в мире технологию.

Поэтому для тех, кто хочет остановить такое событие, вопрос состоит в том, как воспрепятствовать гонке вооружений такого рода или, по крайней мере, побудить конкурирующие команды не пренебрегать безопасностью супер-ИИ.

Как заметил философ Ник Бостром, искусственный интеллект ставит перед изобретателями две фундаментальные проблемы. Одной из них является проблема контроля, которая заключается в том, чтобы убедиться, что искусственный интеллект имеет те же цели, что и человечество.

Без этого ИИ может намеренно, случайно или по небрежности уничтожить человечество.

Вторая — это политическая проблема, которая заключается в гарантии, что преимущества новой технологии не распространятся только на элиту, а будут доступны всему человечеству.

Если произойдет гонка вооружений ИИ, это может привести к тому, что конкурирующие группы проигнорируют эти проблемы, чтобы быстрее разработать свою технологию. Это может привести к появлению недружественного супер-ИИ.

Одно из предлагаемых решений — использовать государственную политику, чтобы затруднить участие в гонке, уменьшить количество конкурирующих групп. Чем меньше соперников, тем меньше будет давления.

Но как правительства могут уменьшить конкуренцию таким образом?

В типичной гонке за новой технологией, будут участвовать только самые конкурентоспособные команды.

Это потому, что вероятность изобрести супер-ИИ очень мала, а участие в гонке очень дорогое из-за больших инвестиций в исследования и разработки.

Это говорит о том, что сокращение количества конкурирующих групп на данный момент не является самым важным приоритетом. Но даже при меньшем количестве участников в гонке, интенсивность соревнования может привести к проблемам, упомянутым выше.

Таким образом, чтобы снизить интенсивность конкуренции между группами, стремящимися создать супер-ИИ и повысить свои возможности, правительства могут обратиться к государственным закупкам и налогам.

Конечно, все это зависит от того, действительно ли супер-ИИ является угрозой человечеству. И некоторые ученые не думают, что это так. Естественно, мы могли бы со временем избавиться от рисков, связанных с его разработкой. Некоторые думают, что люди могут даже слиться с ИИ.

Как бы то ни было, наша планета и ее обитатели получат огромную выгоду от того, что мы получим лучшее от ИИ, технологии, которая все еще находится в зачаточном состоянии. Для этого нам необходимо понять, какую роль может сыграть человечество.


Оцените материал:





ПОДЕЛИСЬ С ДРУЗЬЯМИ:

Материалы публикуемые на "НАШЕЙ ПЛАНЕТЕ" это интернет обзор российских и зарубежных средств массовой информации по теме сайта. Все статьи и видео представлены для ознакомления, анализа и обсуждения. Мнение администрации сайта и Ваше мнение, может частично или полностью не совпадать с мнениями авторов публикаций. Администрация не несет ответственности за достоверность и содержание материалов,которые добавляются пользователями в ленту новостей.


Категория: Гипотезы и версии | Источник: https://rwspace.ru| Просмотров: 734 | Добавил: Pantera| | Теги: сдерживать, должны, Правительства, разработки, ИИ?, сверхинтеллектуального, ли | Рейтинг: 2.0/1

В КОММЕНТАРИЯХ НЕДОПУСТИМА КРИТИКА САЙТА,АДМИНИСТРАТОРОВ,МОДЕРАТОРОВ и ПОЛЬЗОВАТЕЛЕЙ,КОТОРЫЕ ГОТОВЯТ ДЛЯ ВАС НОВОСТИ! УВАЖАЙТЕ ЧУЖОЙ ТРУД!
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

По этой теме смотрите:



ВСЕ НОВОСТИ:
Астрология, пророчества [1066]Астрономия и космос [1457]Безумный мир [2063]
Войны и конфликты [2310]Гипотезы и версии [3874]Дом,сад,кулинария [3945]
Животные и растения [2669]Здоровье,психология [4748]История и археология [4652]
Мир вокруг нас [2167]Мировые новости [7583]Наука и технологии [890]
Непознанное [4196]НЛО,уфология [1263]Общество [7795]
Прогнозы ученых,исследования [798]Происшествия,чп,аварии [1302]Российские новости [5860]
Стихия,экология,климат [2739]Феномены и аномалии [945]Фильмы и видео [6336]
Частное мнение [4911]Это интересно! [3311]Юмор,афоризмы,притчи [2394]



АРХИВ САЙТА:
Астрология и пророчества [825]Гипотезы и прогнозы [4629]Дом,сад,кулинария [223]
Животные и растения [2796]Здоровье и красота [5708]Интересности и юмор [3758]
История и археология [4696]Космос, астрономия [2263]Мир вокруг нас [1982]
Наука и технологии [2422]Непознанное [3983]НЛО,уфология [1747]
Общество, в мире, новости [11574]Психология и отношения [84]Стихия, климат, экология [421]
Фильмы и видео [367]Частное мнения [111]Эзотерика и феномены [2031]