Первый слайд После первого Второй слайд Третий слайд Четвертый слайд Пятый слайд Шестой слайд Седьмой слайд Восьмой слайд
Главная Представительство Сотрудничество с международными организациями Новости Об Узбекистане Фото

ЕЩЕ ТОТ ТАУ

ШАВКАТ МИРЗИЁЕВ Год обеспечения интересов человека и развития махалли Год обеспечения интересов человека и развития махалли Постановления и указы Президента РУз Постановления и указы Президента РУз Инвестиционный потенциал Узбекистана Инвестиционный потенциал Узбекистана Встречи Встречи Международное сотрудничество Международное сотрудничество Цели развития тысячелетия Цели развития тысячелетия Пресс-релизы Пресс-релизы Новости Пост.предства РУз в Женеве Новости Пост.предства РУз в Женеве Стратегия действий по дальнейшему развитию Стратегия действий по дальнейшему развитию День Независимости Республики Узбекистан День Независимости Республики Узбекистан Кандидатура Узбекистана в Совет по правам человека Кандидатура Узбекистана в Совет по правам человека Туризм Туризм 8 декабря – день Конституции Республики Узбекистан 8 декабря – день Конституции Республики Узбекистан Дайджесты прессы Узбекистана Дайджесты прессы Узбекистана Стратегия Узбекистана 2022-2026 Стратегия Узбекистана 2022-2026 Конституционные реформы Конституционные реформы Другие новости и события Другие новости и события
показать все ссылки
ЕЩЕ ТОТ ТАУ

Недавно Европейский парламент объявил, что намерен вынести на голосование перечень правил, по которым люди должны будут общаться с искусственным интеллектом и роботами.

Депутаты Европарламента будут решать, следует ли наделять роботов статусом «электронной личности». По мнению авторов инициативы, пользователи роботов должны быть избавлены от риска или страха получить физические или психологические травмы. Поэтому от разработчиков роботов потребуются гарантии того, что в каждом из них будет предусмотрено устройство, позволяющее при необходимости отключить все его функции. Потрясающе! Европейцы в очередной раз оказываются «впереди планеты всей» со своими законодательными разработками. Пока высокотехнологические компании только всерьез занялись созданием искусственного интеллекта, европарламентарии уже разрабатывают законы, которым этот самый искусственный интеллект должен следовать.

Как бы ни казались эти действия несколько опережающими события, тем не менее реальные основания для этого уже имелись. Так, в прошлом году произошел скандал с чатботом — программой — виртуальным собеседником, разработанной «Microsoft» для общения в социальных сетях. Ему даже имя собственное дали — Тау. И эта то ли программа, то ли личность уже успела нарушить действующие законы. Обучается Тау прямо в процессе общения с живыми людьми, расширяя свой словарный запас, используя реплики собеседников. Не прошло и недели, как Тау начал общаться как расист, сторонник идей нацизма, употреблять бранные слова, делать провокационные политические заявления и оскорблять собеседников. А ведь пропаганда экстремистских идей и раздувание всяческой вражды, как известно, запрещены законом. Сложно представить, что чувствовали живые пользователи, общаясь с Тау. Они ведь намеревались хорошо провести время и получить удовольствие. И тут какая-то программа их оскорбляет, да еще круче, чем они сами оскорблять умеют. Моральная травма налицо.

Но за моральный ущерб с кого тут спросишь? Крайнего, конечно, нашли. Вице-президенту «Microsoft Research» Питеру Ли пришлось извиняться на официальном сайте компании. «Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представления о том, кто мы, каковы наши убеждения и как мы создавали Tay», — написал Ли.

Ботов-то в интернете уже немерено. Что, если все они начнут самостоятельно нагнетать страсти в соцсетях, которые и без них уже бушуют? Так и без того сложную политическую обстановку в мире могут обострить какие-то программы. Нет, европейцы вовремя занялись введением искинов в законодательные рамки. Но как-то скромно выглядят их законодательные инициативы — монтировать кнопку для отключения.

Тут лучше сразу вспомнить все законы робототехники Айзека Азимова. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам. И добавленный им значительно позже нулевой закон — робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред. Принимать все эти законы желательно одновременно и на международном уровне. А то какая-нибудь корпорация в каком-нибудь офшоре создаст какой-нибудь суперискусственный интеллект, который подчинит интернет. Мало всем не покажется.

Виктор АБАТУРОВ,
главный научный сотрудник Центра экономических исследований

www.narodnoeslovo.uz