![Как АВТОВАЗ ВЗЛЕТЕЛ и УПАЛ. Факты о которых вы НЕ ЗНАЛИ.](https://i.ytimg.com/vi/xyGphgSDo4M/hqdefault.jpg)
Кажется, что месяц не пройдет, если какой-нибудь высокопоставленный человек не прокомментирует потенциальную возможность захвата мира машинами с искусственным интеллектом. Элон Маск официально заявляет, что системы ИИ «потенциально более опасны, чем ядерные бомбы». Но он не единственный, Стивен Хокинг также обеспокоен: «Развитие полного искусственного интеллекта может означать конец человеческой расы». Профессор Хокинг рассказал Би-би-си. «Он взлетит сам по себе и будет постоянно обновлять дизайн». Даже Билл Гейтс обеспокоен: «Я нахожусь в лагере, который обеспокоен сверхразумом. Я согласен с Элоном Маском и некоторыми другими в этом и не понимаю, почему некоторые люди не обеспокоены ».
Все они высказывают опасения по поводу возможности того, что мощные системы ИИ будут иметь непреднамеренные или даже потенциально катастрофические последствия. Еще в январе Элон Маск пожертвовал 10 миллионов долларов Институту будущего жизни (FLI) для запуска глобальной исследовательской программы, направленной на сохранение искусственного интеллекта, полезного для человечества.
Сегодня Институт будущего жизни объявил, что выделил 7 миллионов долларов США 37 исследовательским группам по всему миру, чтобы общество могло воспользоваться преимуществами ИИ, избегая апокалипсиса и конца жизни на земле.
Опасность сценария «Терминатор» не в том, что это произойдет, а в том, что он отвлекает от реальных проблем, связанных с будущим ИИ.
Яан Таллин, один из основателей FLI и парень, который написал оригинальную версию Skype, сказал о новом исследовании: «Создание продвинутого ИИ похоже на запуск ракеты. Первая задача - максимизировать ускорение, но как только он начнет набирать скорость, вам также нужно сосредоточиться на управлении ».
Среди 37 проектов три проекта, в которых будут рассмотрены методы, позволяющие системам ИИ учиться тому, что люди предпочитают, наблюдая за нашим поведением. Один из этих проектов будет осуществляться в Калифорнийском университете в Беркли, а другой - в Оксфордском университете.
Беня Фаллштейн из Научно-исследовательского института машинного интеллекта получает 250 000 долларов на поиск путей согласования интересов суперинтеллектуальных систем с человеческими ценностями. В то время как команда Мануэлы Велозо из Университета Карнеги-Меллона получит 200 000 долларов, чтобы посмотреть, как заставить системы ИИ объяснять свои решения людям.
Другие проекты включают в себя исследование Майкла Уэбба из Стэнфордского университета о том, как сохранить экономическое влияние ИИ на благо, проект о том, как держать управляемое ИИ оружие под «значимым контролем человека», и новый Оксфорд-Кембриджский исследовательский центр по изучению ИИ политика
Говоря о Голливуде, FLI пытается отмежеваться с апокалипсисом. FLI стремится подчеркнуть важность отделения фактов от вымысла. «Опасность сценария« Терминатор »не в том, что это произойдет, а в том, что он отвлекает от реальных проблем, связанных с будущим ИИ», - сказал президент FLI Макс Тегмарк. «Мы остаемся сосредоточенными, и 37 команд, поддерживаемых сегодняшними грантами, должны помочь решить такие реальные проблемы».
Что вы думаете? Деньги хорошо потрачены?