Бог из машины (Предупреждение - ОМБ!)

Модератор: Князь

Аватара пользователя
Князь
Сообщения: 3936
Зарегистрирован: 11 мар 2009, 14:01
Пол: Мужской
Ориентация: Гетeро
Д/C-ориентация: Доминант
С/М-ориентация: Садист
БД-ориентация: Топ
Город: Комсомольск-на-Амуре
Откуда: Комсомольск-на-Амуре
Благодарил (а): 4 раза
Поблагодарили: 160 раз

Бог из машины (Предупреждение - ОМБ!)

Сообщение Князь » 06 ноя 2015, 23:20

Бог из машины

В последние десятилетия наука совершила настоящий прорыв - освоение космоса, клонирование, Интернет, нанотехнологии, искусственный интеллект стали для нас реальностью. Но мир меняется стремительно, и уже сейчас важно понять, что произойдет в системе взаимоотношений «человек - искусственный интеллект» и какие опасности существуют.
Однажды опытных университетских преподавателей попросили предсказать оценки первокурсников в конце учебного года.
Им разрешили побеседовать с каждым студентом в течение 45 минут, изучить школьные оценки, результаты нескольких личностных тестов и сочинения. Одновременно такая же задача выполнялась автоматически на основе алгоритма, простой математической формулы. Для нее требовались только школьные оценки и результат одного личностного теста. В 11 случаях из 14 алгоритм предсказал успеваемость студента точнее, чем преподаватели, и сделал это почти мгновенно. Это исследование было проведено более 60 лет назад (Meehl, 1954)! Позже аналогичный алгоритм показал себя так же успешно в предсказании поведения людей, отпущенных на условно-досрочное освобождение, или успеваемость пилотов в летных школах.
Алгоритм может рассматривать неординарные вещи.
Например, имеет ли значение при предсказании развода супругов цвет волос партнеров?
Или расстояние между домами, где они выросли, или марка их первой машины, или первая буква имени? Эти вопросы кажутся странными, но на каждый из них есть ответ - чаще всего отрицательный, хотя зависимость может быть едва уловимой. Кстати, психологи подтверждают, что нам чуть больше нравятся люди с такой же первой буквой в имени, как у нас самих.
Известный популяризатор математики Гарт Саидэмпо по просьбе газеты «Нью-Йорк Таймс» написал шуточный алгоритм, предсказывающий длительность брака голливудских актрис. Формула учитывала возраст, предыдущее количество лет в браке, число выдач «Гугла», показывающих актрису в откровенных нарядах, число месяцев знакомства до брака и другие. Странно выглядящая, громоздкая и пугающая, эта формула весьма неплохо предсказывала длительность отношений! На ее основе математик определил, что брак Кейт Холмс и Тома Круза продлится пять лет - он продлился пять с половиной лет. Брак Анджелины Джоли и Брэда Питта, согласно алгоритму, скорее всего не разрушится, вероятность того, что они останутся вместе, - выше 50 %.
Анализ больших баз данных всегда приносит плоды, математическая модель сама находит корреляции и значимые отношения между переменными, зачастую такие, о которых мы даже не подозревали. Происходит это в тысячи раз быстрее, чем классическим путем научного эксперимента.
По нашим «лайкам» в «Фейсбуке» машина определит пол, возраст, характер, вероисповедание и сексуальные предпочтения и еще с десяток параметров. «Гугл» с каждым днем лучше и лучше узнает наши предпочтения и определяет, кто мы такие, - по нашим запросам и письмам в почтовом ящике. «Амазон» подсказывает, какую книгу купить, - и чем больше вы покупаете там книг, тем лучше он понимает ваш вкус. Сервис музыки «Пандора», по-нашему «нравится/не нравится», подбирает музыку. С каждым ответом нейронная сеть учится угадывать, что мы любим. Заметьте, что вы сами можете не догадываться, понравится вам следующая песня или нет, а программа будет знать наперед.
Получается, что искусственный интеллект постепенно узнает нас лучше и лучше, в то время как мы остаемся в неведении. Придет день, когда роботы будут знать о нас все: что мы любим, чего захотим через неделю, когда пойдем в туалет и что нам приснится ночью. Для нашего воображения не останется места. Если это кажется фантастикой, то так и есть - мы начинаем жить поистине в фантастическом мире.
В апреле 2014 года компания DeepMind, которая занимается разработкой искусственного интеллекта, продемонстрировала, как самообучающаяся компьютерная программа учится побеждать все игрушки «Атари», получив только управление и цель выиграть.
Программа умудрилась прийти к стратегиям, которые люди не додумались придумать!
В боксерской игрушке она сразу же загоняет соперника в угол и начинает тупо избивать партнера, без вариантов и надежды. Недавно искусственный интеллект научился блефовать в покере. Впрочем, хитрить, притворяться и манипулировать этому «ученику» удается очень успешно.
Исследователи опасаются, что, как только появится продукт, равный по интеллекту человеческому, история начнет развиваться весьма драматично. Наверняка искусственный интеллект не остановится в развитии, и это развитие будет стремительным. Он в считаные часы может стать в тысячу раз «умнее» нас, и тогда встанет вопрос об отношениях между нами и подчинении, а решиться эта проблема может за доли секунды и, вероятно, не в нашу пользу.
Допустим, искусственный интеллект озаботится, казалось бы, безобидным делом: пересчитать песчинки на пляжах Земли, «чем бы дитя ни тешилось». Если вдруг поймет, что ему для выполнения цели требуется вся доступная энергия и материалы, он будет смотреть на Землю, Вселенную и на нас как на источник всего этого. Как сказал Элиезер Юдковский, исследователь машинного интеллекта: «У искусственного интеллекта нет к нам ни любви, ни ненависти. Но мы сделаны из атомов, которые он может использовать для чего-то полезного ему».
Одна из главных задач - создать именно дружественный искусственный интеллект, «вшить ген» дружелюбного отношения к нам в каждую его ДНК, чтобы бесконечные переписывания на этапах развития этот ген не уничтожили. Это, мягко говоря, непростая задача, и никто пока не знает, как это сделать.
В среде людей, которые понимают опасность искусственного интеллекта, есть правило, которое нельзя нарушать ни при каких обстоятельствах: не подсоединять искусственный интеллект к любой сети.
Нам достаточно проиграть искусственному интеллекту всего лишь один раз, второго шанса переиграть не будет никогда.
Если угодно - мы не знаем, когда искусственный интеллект станет суперинтеллектом, ведь он может долгое время просто хитрить, что он совсем даже недалекий и безопасный. Некоторые могут подумать, что он будет играть с нами по правилам и честно выполнять свои обязательства. Но с чего вдруг ему так поступать? Уж кто-то, но люди - не самый лучший пример следования правилам и законам. У нас есть богатый опыт общения с богами, но все, что мы смогли придумать, это молитвы и другие религиозные обряды без обратной связи.
Те, кто верят, никогда не знают, собирается ли высшее существо удовлетворять их мольбы и какие у бога планы на их счет.
Пример богов в нашем случае весьма уместен - высшие существа вообще-то не особо к нам толерантны: за малейшие погрешности они стирали с лица земли целые города. Суперинтеллект будет круче всех богов вместе взятых в тысячи раз и существовать будет вполне реально. Перед его стремительным нашествием с непонятными нам целями угроза ядерной войны, глобальной смертельной эпидемии выглядят как утренник в детском саду.
Суперинтеллект не будет человеком, и иррационально думать, что он вдруг внезапно станет нас любить или защищать.
Мы в тысячу раз умнее мух, и при этом даже являемся дальними родственниками (делим с ними какую-то часть ДНК), но нам и на ум не приходит консультироваться с ними или думать об их интересах. А сколько из нас искренне желали, хотя бы раз в жизни, чтоб эти проклятые мухи исчезли с лица земли?
Сегодня сотни компаний занимаются развитием систем искусственного интеллекта для разных целей, не считая секретных проектов. Далеко не все разработчики хотят дружелюбности от машины, которую делают, чтобы эффективнее убивать людей! Американцев сейчас, например, заботит одно - создать мощный интеллект раньше, чем это сделают китайцы или, упаси бог, северные корейцы. Как минимум 56 стран разрабатывают боевых роботов, и они появляются на полях сражений, недавно в Ираке три робота с пулеметами были в страхе выключены, после того как направили стволы на союзников. В 2007 году зенитный робот убил 9 солдат и ранил 15, приняв их за цель.
Определение цели и расстрел заняли 120 миллисекунд - все произошло в три раза быстрее, чем вы успели бы моргнуть.
По большому счету все, что у нас есть на сегодняшний день по поводу дружелюбности машин к человеку и человечеству, это законы робототехники Айзека Азимова! Они прекрасны, но только в литературе. Ведь даже в рассказах Азимов показывал, как эти законы неизбежно ведут к противоречиям и нарушаются. Это не апоплексическая страшилка - такой же точки зрения придерживаются самые талантливые и умные люди планеты - основатели и команда «Гугла», Элон Маек, Вилл Гейтс, Стивен Хокинг, Демис Хассабис и другие. Некоторые из них реально напуганы и хотят сделать все зависящее от них, чтобы не создать монстра.
До момента появления суперинтеллекта по прогнозам остается 15-40 лет. За это время человечеству предстоит существенно измениться. Даже если мы придумаем коды дружелюбности и зашьем их в каждую его строчку, всегда найдется кто-то, кто захочет сломать этот код. Нам надо стать обществом, в котором нет места насилию, несправедливости и где все живут дружно и мирно. Да, это звучит утопично. Но у нас, вероятно, нет другого пути, а скоро не будет и времени. Хорошо, что в мире так много талантливых и умных людей, которые взялись за решение таких задач, они, без преувеличения можно сказать, спасут мир. Надеюсь.
Будущее - уже здесь, но оно распределено неравномерно.
В одних местах идет революция технологий и сознания, а в других, где слой слишком тонок, люди все еще говорят о своем особом пути и поливают духовные скрепы святой водой. А чем вы хотите заняться в этой самой увлекательной вселенской игре?
(с)

Источники
Anderson С. The End of Theory: The
Data Deluge Makes the Scientific Method
Obsolete // Wired. June 23,2008.
Barrat J. Our final invention: artificial
intelligence and the end of the human era.
New York : St. Martin’s Press, 2013.
Люби свою веру, но не осуждай другие.

Вернуться в «"Д(умы) А(нализ) Р(азмышления) от Князя"»

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и 29 гостей

Двойное Дно : Disclaimer