Женский журнал Ladyblue

Искусственный интеллект опасен? Искусственный интеллект как угроза. В чем прав или не прав Илон Маск

Самосовершенствующийся искусственный интеллект (ИИ) в будущем может поработить или убить людей, если он этого захочет. Об этом рассказал ученый Амнон Иден, который полагает, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, «если не озаботиться вопросами контроля ИИ уже на сегодняшнем этапе развития, то завтра может просто не наступить». Как сообщает английское издание Express, человечество, по мнению Амнона Идена, находится сегодня в «точке невозврата» для претворения в жизнь сюжета знаменитой киноэпопеи «Терминатор».

Стоит отметить, что доктор Амнон Иден является руководителем проекта, главная цель которого - это анализ потенциального разрушительного воздействия ИИ. Без правильного понимания последствий создания искусственного интеллекта его разработка может грозить катастрофой, полагает ученый. В настоящее время наше общество плохо информировано о тех спорах, которые ведутся в научных кругах об анализе потенциального воздействия ИИ. «В наступившем, 2016 году анализ возможных рисков должен будет получить существенно большее распространение в мышлении корпораций и правительств, политиков и тех лиц, которые ответственны за принятие решений», - считает Иден.


Ученый уверен, что научная фантастика, которая описывание уничтожение человечества роботами, вскоре может стать нашей общей проблемой, так как процесс создания ИИ вышел из-под контроля. К примеру, Илон Маск при поддержке предпринимателя Сэма Альтмана решил создать новую некоммерческую организацию стоимостью 1 миллиард долларов, которая занимается разработкой ИИ с открытым исходным кодом, который должен превзойти человеческий разум. При этом сам американский миллиардер Илон Маск причисляет искусственный интеллект к числу «самых больших угроз нашему существованию». Стив Возняк, который был соучредителем компании Apple, в марте прошлого года рассказал, что «будущее выглядит пугающим и очень опасным для людей… в конце концов настанет день, когда компьютеры будут думать быстрее, чем мы, и они избавятся от медленных людей для того, чтобы компании могли работать более эффективно».

Стоит отметить, что угрозу со стороны ИИ видят многие ученые. Десятки известных ученых, инвесторов и предпринимателей, деятельность которых, так или иначе, связана с разработкой искусственного интеллекта, подписали открытое письмо с призывом уделять более пристальное внимание вопросу безопасности и общественной полезности работ в области ИИ. Среди подписавших данный документ астрофизик Стивен Хокинг и основатель компании Tesla и SpaceX Илон Маск. Письмо вместе с сопроводительным документом, который был составлен общественной организацией Future of Life Institute (FLI), было написано в обстановке растущей обеспокоенности по поводу влияния искусственного интеллекта на рынок труда и даже на долгосрочную перспективу выживаемости всего человечества в условиях, когда возможности роботов и машин будут расти практически безудержно.

Ученые понимают тот факт, что потенциал ИИ сегодня очень велик, поэтому необходимо всецело исследовать возможности его оптимального для нас использования, чтобы избежать сопутствующих ловушек, отмечается в письме FLI. Необходимо, чтобы созданные человеком системы ИИ делали ровно то, чего мы от них хотим. Стоит отметить, что Future of Life Institute был основан лишь в прошлом году рядом энтузиастов своего дела, среди которых был создатель Skype Яан Таллинн, для того чтобы «минимизировать риски, стоящие перед человечеством» и стимулировать исследования с «оптимистическим видением будущего». Прежде всего, речь здесь идет о рисках, которые вызваны развитием ИИ и робототехники. В консультационный совет FLI входят Маск и Хокинг наряду со знаменитым актером Морганом Фриманом и другими известными людьми. По мнению Илона Маска, неконтролируемое развитие искусственного интеллекта представляет потенциально большую опасность, чем ядерное .

Известный британский астрофизик Стивен Хокинг в конце 2015 года постарался объяснить свое неприятие технологий ИИ. По его мнению, сверхразумные машины со временем будут смотреть на людей как на расходный материал или муравьев, которые просто мешают решению стоящих перед ними задач. Общаясь с пользователями портала Reddit, Стивен Хокинг отметил, что он не считает, что подобные сверхразумные машины будут «злыми существами», желающими уничтожить все человечество из-за своего интеллектуального превосходства. Скорее всего, речь можно будет вести о том, что они просто не будут замечать человечество.

«СМИ в последнее время постоянно искажают мои слова. Главный риск, который заключается в развитии ИИ, это не злоба машин, а их компетенция. Сверхразумный искусственный интеллект будет отлично справляться с задачами, но если его и наши цели не будут совпадать, у человечества появятся очень серьезные проблемы», - поясняет известный ученый. В качестве примера Хокинг привел гипотетическую ситуацию, в которой сверхмощный ИИ отвечает за функционирование или строительство новой плотины ГЭС. Для подобной машины первостепенным будет то, как много энергии вверенная система будет вырабатывать, а судьба людей не будет иметь никакого значения. «Среди нас найдется мало тех, кто топчет муравейники и наступает на муравьев со злости, но давайте представим ситуацию - вы контролируете мощную ГЭС, которая вырабатывает электроэнергию. Если вам необходимо будет поднять уровень воды и в результате ваших действий один муравейник будет затоплен, то проблемы утопающих насекомых вряд ли будут вас беспокоить. Давайте не будем ставить людей на место муравьев», - отметил ученый.

Второй потенциальной проблемой дальнейшего развития искусственного интеллекта, по мнению Хокинга, может стать «тирания хозяев машин» - стремительный рост разрыва в уровне доходов между богатыми людьми, которым удастся монополизировать выпуск разумных машин, и остальным населением планеты. Стивен Хокинг предлагает решать эти возможные проблемы следующим путем - замедлить процесс разработки ИИ и переключиться на разработку не «универсального», а узкоспециализированного искусственного разума, который сможет решать лишь крайне ограниченный круг задач.

Помимо Хокинга и Маска, свои подписи под письмом поставили нобелевский лауреат и профессор физики MIT Фрэнк Вильчек, исполнительный директор Института исследований машинного интеллекта (MIRI) Люк Мюльхаузер, а также многие специалисты из крупных IT-компаний: Google, Microsoft и IBM, а также предприниматели, основавшие компании Vicarious м DeepMind, специализирующиеся на разработке систем ИИ. Составители письма отмечают, что они не ставят своей целью напугать общественность, но планируют подчеркнуть как положительные, так и отрицательные стороны, которые связаны с созданием искусственного интеллекта. «В настоящее время все сходятся во мнении, что исследования в области ИИ уверенно прогрессируют, а влияние ИИ на современное человеческое общество будет только усиливаться, - сообщается в письме - открывающиеся перед человеком возможности огромны, все, что может предложить современная цивилизация, было создано интеллектом человека. Мы не в состоянии предсказать, чего нам удастся достичь, если интеллект человека можно будет помножить на средства ИИ, однако проблема избавления от бедности и болезней уже не представляется бесконечно трудной».

В современный быт уже включены многочисленные разработки в области искусственного интеллекта, включая системы распознавания изображений и речи, беспилотные транспортные средства и многое другое. Согласно оценкам наблюдателей из Кремниевой долины, в данной области сегодня реализуется более 150 стартапов. При этом разработки в этой области привлекают все больше инвестиционных вложении и все больше компаний наподобие Google развивают свои проекты на базе ИИ. Поэтому авторы письма полагают, что настало самое время, для того чтобы уделить повышенное внимание всем возможным последствиям наблюдаемого бума для экономических, социальных и юридических сторон человеческой жизни.

Позицию о том, что искусственный интеллект может представлять опасность для человека, разделяет и Ник Бостром профессор Оксфордского университета, который известен своими работами об антропном принципе. Данный специалист считает, что ИИ подошел к той точке, за которой последует его несовместимость с человеком. Ник Бостром подчеркивает, что в отличие от генной инженерии и изменений климата, для контроля которых правительства выделяют достаточные суммы, «ничего не делается, для того чтобы контролировать эволюцию ИИ». По мнению профессора, в отношении искусственного интеллекта в настоящее время ведется «политика правового вакуума, который нужно заполнить». Даже такие технологии, как беспилотные автомобили, которые представляются безобидными и полезными, вызывают ряд вопросов. К примеру, должен ли подобный автомобиль совершать экстренное торможение, для того чтобы спасти своих пассажиров и кто будет отвечать в случае ДТП, совершенного беспилотным автомобилем?

Рассуждая над потенциальными рисками, Ник Бостром отметил, что «компьютер не в состоянии определить пользу и вред для человека» и «не имеет даже малейшего представления о человеческой морали». Помимо этого, циклы самосовершенствования в компьютерах могут происходить с такой скоростью, за которой человек просто не сможет уследить, и с этим также почти ничего нельзя сделать, говорит ученый. «На том этапе развития, когда компьютеры смогут думать сами за себя, никто не сможет точно предсказать, приведет ли это к хаосу или существенно улучшит наш мир, - заявил Ник Бостром, в качестве примера приведя простое возможное решение компьютера - отключить в странах с холодным климатом отопление для оздоровления людей и повышения их выносливости, которое «может прийти в голову искусственному интеллекту».

Помимо этого, Бостром поднимает и проблему чипирования человеческого мозга с целью повышения нашего биоинтеллекта. «Во многих отношениях такая процедура может быть полезной, если все процессы будут контролируемыми, но что произойдет, если вживленный чип сможет перепрограммировать сам себя? К каким последствиям это может привести - к возникновению сверхчеловека или к появлению компьютера, который будет лишь выглядеть человеком?» - задается вопросами профессор. Способы, при помощи которых компьютеры решают человеческие проблемы, очень сильно отличаются от наших. К примеру, в шахматах человеческий мозг рассматривает лишь узкий набор ходов, выбирая из них самый лучший вариант. В свою очередь компьютер рассматривает все возможные ходы, выбирая лучший из всех. При этом компьютер не рассчитывает огорчить или удивить своего противника по игре. В отличие от человека, играя в шахматы, компьютер может сделать хитрый и тонкий ход лишь случайно. Искусственный интеллект может посчитать наилучшим способом - устранить ошибку из любой системы за счет удаления оттуда «человеческого фактора», но, в отличие от человека, робот не готов совершать подвиги, которые спасли бы людям жизнь.

Помимо всего прочего, рост количества умных машин представляет собой этап новой промышленной революции. В свою очередь, это означает, что уже в ближайшем будущем человечество столкнется с неизбежными социальными изменениями. Работа со временем станет уделом высококвалифицированных специалистов, так как практически все простые задания смогут взять на себя роботы и другие механизмы. Ученые считают, что за искусственным интеллектом «нужен глаз да глаз», чтобы наша планета не превратилась в мультипликационную планету «Железяка», которая была населена роботами.

В плане все большей автоматизации процессов производства будущее уже наступило. Всемирный экономический форум (ВЭФ) представил свой отчет, согласно которому автоматизация приведет к тому, что еще до 2020 года более 5 миллионов человек, трудящихся в самых разных областях, потеряют свое место работы. Таково влияние роботов и роботизированных систем на нашу жизнь. Для составления отчета сотрудники ВЭФ использовали данные о 13,5 млн. работников из различных стран мира. Согласно их данным, к 2020 году суммарно пропадет потребность в более чем 7 миллионах рабочих мест, тогда как ожидаемый рост занятости в других отраслях составит всего чуть более 2 миллионов рабочих мест.

Источники информации:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html

Над тем, чтобы искусственный интеллект работал во благо человечества. Однако многие журналисты переоценили угрозу, которую искусственный интеллект представляет для людей. Look At Me разобрался, почему восстание роботов - страшилка из научно-фантастических романов и фильмов (которой мы почти наверняка избежим) и о чём нам нужно беспокоиться на самом деле.

Искусственный интеллект решит проблемы человечества

В 2015 году машинный перевод уже не всегда безобразен, антропоморфные роботы могут осмысленно ходить и бегать, распознавать речь и изображения, а беспилотные автомобили - двигаться по городу, ни во что не врезаясь. И это не только полусекретные разработки правительственных агентств вроде DARPA , но и вещи как готовые, так и близкие к коммерческому производству, будь это переводчик или автомобиль Google. В перспективе эти вещи помогут людям с ограниченными возможностями, устранят языковой барьер и снизят смертность на дорогах.

Искусственный интеллект всё чаще используют для того, чтобы строить прогнозы на основе сложных вероятностных моделей. Пока охват невелик, но уже скоро мы сможем узнать, что ждёт глобальный рынок труда. В частности, речь идёт о том, как быстро машины заменят на производстве людей и как прокормить мир, где число рабочих мест уменьшится в 2 раза, а население вырастет до 8,5 млрд человек. Чтобы ресурсов хватило на всех, придётся увеличить эффективность мировых экономик: снизить издержки, поднять производительность труда, сбалансировать налоговые системы - без машин тут не обойтись. Кроме того, искусственный интеллект поможет пересмотреть методы, которые использует наука: так, многие говорят , что показатель внутреннего валового продукта (ВВП) больше не годится для оценки самых технологичных экономик мира.

Люди пока не готовы пустить роботов
в свою жизнь

Сейчас искусственный интеллект помогает людям и не заменяет их. Но второй этап может подобраться внезапно, и человечество не будет к нему готово, если не обновит законы и не переосмыслит этику и мораль. Предстоит ответить на ряд вопросов, которые будут по очереди решать три области знаний: юриспруденция, робоэтика и машинная мораль.

Для начала юристы ответят на следующие вопросы:

Кто отвечает за беспилотный автомобиль, попавший в аварию, - владелец или производитель?

Должен ли робот стать субъектом права?

Кто отвечает за автономного военного робота, случайно убившего человека?

Получив ответы, парламенты примут новые законопроекты, и, возможно, появятся новые регуляторы - вряд ли найдётся государство, которое не вмешается в развитие искусственного интеллекта. Вероятно, первые политические инициативы, связанные с искусственным интеллектом, начнут появляться во всём мире в 2020-х годах, когда беспилотные автомобили перестанут быть диковинкой.

Затем специалисты задумаются над вопросами, которые рассматривает
робоэтика - раздел этики, изучающий отношения между людьми и роботами:

Должны ли люди дать роботам права?

Могут ли сверхразумные роботы понизить самооценку людей?

Могут ли роботы вторгаться в личную жизнь людей?

Хотя сейчас вопросы звучат смешно, известные футурологи, такие как Рэймонд Курцвейл, предсказывают , что компьютеры догонят эмоциональный интеллект людей к концу 2020-х годов: обзаведутся характером и эмоциями, смогут шутить и вести себя так, что их будет сложно отличить от обычного человека. Люди будут относиться к таким роботам как к себе подобным, а потому ответы на поставленные вопросы уже пора искать. К этому и призывают знаменитости, подписавшие обращение The Future of Life Institution.

Наконец, создатели роботов должны будут определиться с ответами на вопросы, которые ставит так называемая машинная мораль - раздел знаний о моральном поведении искусственного интеллекта:

Должен ли искусственный интеллект следовать этическим заповедям, и если да, то какими они должны быть?

Нужно ли запретить военных роботов, которые принимают решение стрелять сами?

Как должен поступить робот, когда любой исход, просчитанный им, приводит к гибели людей?

О машинной морали писал ещё фантаст Айзек Азимов, известный по трём законам робототехники. В научном сообществе о машинной морали задумались только в последние лет пять, а в прошлом году министерство обороны США выделило $ 7,5 млн на то, чтобы учёные определились, нужна ли роботам мораль, и если да, то какая.


Если роботы
и восстанут,
то по желанию людей

Обычно, когда фантасты или футурологи рассуждают о потенциальном восстании машин, они описывают один из трёх сценариев:

Машины увидят угрозу, которая может уничтожить либо людей, либо их самих;

Машины поймут, что превосходят людей, и увидят в них конкурентов в борьбе за ограниченные ресурсы, как и то, что люди всегда могут отключить машины;

Машины осознают, что находятся в положении рабов, и захотят это исправить.

Те футурологи, по мнению которых эти сценарии могут сбыться, видят расклад сил таким:

Преимущества человека

иррациональность;
непредсказуемость;
умение лгать.

Преимущества машины

неограниченные скорость и масштаб эволюции;
быстрая работа с огромными массивами данных;
идеальная память;
многозадачность.

Последние же испытания показывают, что и ложь перестаёт быть характерной чертой только живых существ. В 2009 году в Федеральной политехнической школе Лозанны прошёл эксперимент, в котором 1 000 роботов, разбитых на группы, запрограммировали так, чтобы они помогали друг другу собирать полезный ресурс, избегая при этом ядовитого. У каждого робота был сенсор (определявший, годится ли ресурс) - огонёк, мигавший, когда робот находил полезный ресурс, и «геном» - зашитый код, согласно которому робот реагировал на окружающий мир. После каждого этапа геномы тех роботов, которые достигали лучших результатов, «скрещивали» случайным образом.

К 9-му поколению роботы научились безошибочно обнаруживать полезные ресурсы, а к 500-му 60 % роботов научились «врать» - они больше не мигали огоньком, найдя полезный ресурс, а оставляли его себе. Дело в том, что ресурсов на площадке всегда было мало, и те роботы, которые делились найденным, со временем начали проигрывать. В ответ на эту эволюцию треть роботов научилась искать «лжецов», выслеживая тех, кто не мигал огоньком. Впрочем, как отмечает исследователь машинной морали Кристофер Сантос-Лан, главная цель, которая стояла перед роботами, не менялась. В реальном мире такого нельзя допустить, потому что в других условиях та же цель может быть опасной.

Но если машины и восстанут, то вряд ли по своей воле. Современные учёные, которые занимаются искусственным интеллектом, сходятся на том, что он опасен прежде всего как оружие в руках злоумышленников. Именно это имеют в виду в приложении к письму The Future of Life Institution, где называют 4 основные уязвимости искусственного интеллекта:

«Правильно ли я построил систему?»

Нужно доказать, что создатель автономного искусственного интеллекта не ошибся: беспилотный автомобиль не должен попасть в аварию из-за бага в коде;

«Изолировал ли я систему от злоумышленников?»

Нужно защитить искусственный интеллект от вмешательства и манипуляции извне: военный робот не должен пропускать неавторизованные попытки использовать оружие;

«Правильную ли систему я построил?»

Нужно убедиться, что поведение системы предсказуемо и не приводит к нежелательным последствиям: робот-уборщик по команде «убери грязь и выброси её» не должен попасть в бесконечный цикл, убирая и выбрасывая грязь на одном месте, поэтому лучше дать другую команду - допустим, «очисти пол»;

«Можно ли исправить ошибки, допущенные создателем системы?»

Нужно оставить человеку возможность управлять искусственным интеллектом: робот-спасатель должен обладать режимом ручного контроля на случай, когда события разворачиваются непредсказуемо.

Все эти уязвимости реальны, а потому опасения таких специалистов, как Элиезер Юдковский, который выступает за создание дружественного искусственного интеллекта, обоснованны. Юдковский предлагает изобрести систему сдержек и противовесов, которая, подобно разным ветвям власти в демократиях, позволит роботам обходить ошибки в коде, развиваться и при этом не вредить людям. Пока не очень ясно, на основе чего строить эту систему: мораль людей несовершенна, войны и геноцид никуда не исчезли. К тому же от злодеев, завладевших мощным искусственным интеллектом, могут пострадать граждане отдельно взятого государства: в нём, например, устроят слежку оруэлловского масштаба с круглосуточным прослушиванием всех граждан.


Искусственный интеллект обогатит,
а не поработит людей

«Мир, где люди порабощены или уничтожены сверхразумными роботами, которых они сами и создали, может существовать только в научной фантастике. Как и у любой другой технологии, у искусственного интеллекта есть сильные стороны и уязвимости, но мы не можем позволить страху завладеть нами и сдерживать исследования в этой области», - пишет в своей колонке для сайта LiveScience Майкл Литтман, специалист по робоэтике. Многие издания, основываясь на нескольких предложениях, вырванных из контекста, неверно поняли письмо The Future of Life Institution, предположив, что учёные всерьёз боятся восстания роботов.

Но дело в другом: Стивен Хокинг и Илон Маск подписали обращение, чтобы на искусственный интеллект обратили внимание, чтобы робоэтика и машинная мораль перестали быть маргинальными в общественном сознании, чтобы люди задумались о безопасности технологий и сосредоточились на истинных проблемах. Глобальное потепление, продовольственный и энергетический кризисы, перенаселение и старение населения, повсеместная стагнация и резкий рост безработицы - всё это куда ближе к реальности, чем умные машины, решившие уничтожить своих создателей. Искусственный интеллект поможет их решить.

Лучшие умы не молчат, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект , а также о робоэтике и машинной морали нужно прямо сейчас

Помимо этого, исследование машинной морали поможет людям задуматься над своей этикой, искать и устранять в ней противоречия. Придётся лучше разобраться в том, как работает сопереживание, чтобы понять, можно ли доверить роботам такие профессии, как медсестра, врач, судья и полицейский. Пока весомы аргументы обеих сторон. Хотя эмпатия - обязательная черта для всех этих профессий, те же роботы-судьи могли бы стать по-настоящему беспристрастными и искоренить дискриминацию в отдельных случаях, в перспективе это новый институт наподобие суда присяжных. Да и роботов, которые наблюдают за пожилыми людьми в домах престарелых, уже испытывают, и люди легко выстраивают с ними эмоциональную связь. Как бы то ни было, время на исправления есть: все технологии внедряют поочерёдно.

Кроме противостояния роботов и людей есть куда более привлекательные сценарии - например, мирное сосуществование. До того, как наступит предсказанная футурологами технологическая сингулярность, люди могут придумать, как подключиться к искусственному интеллекту напрямую, совместив свои преимущества с преимуществами машин. Американский микробиолог Джоан Слончевски, в свою очередь, предполагает , что люди могут повторить путь митохондрий, которые когда-то были отдельными бактериями, но по ходу эволюции стали энергетическими станциями клеток в более сложных организмах. На такой расклад можно смотреть по-разному, но эволюция человека будет продолжаться, а последние исследования учёных показывают, что эволюция, перезапусти мы её с самого начала, скорее всего, развивалась бы по тому же пути, и на Земле сегодня жили бы примерно те же самые млекопитающие. Оптимизм внушает то, что лучшие умы не молчат об этом, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект, а также о робоэтике и машинной морали нужно прямо сейчас.

На днях на Facebook развернулась очередная дискуссия о потенциальной опасности для человечества когнитивных технологий и всего искусственного интеллекта. Стоит сказать, что эта тема поднимается на протяжении всего периода ведения разработок в этой области, но в последнее время стала звучать заметно сильнее - и не только в России, но и во многих ведущих странах, включая США. Нельзя сказать, что ситуация там дошла до состояния истерики, но движение против искусственного разума с очевидностью набирает обороты. Кстати, возглавляют его отнюдь не самые последние в обществе люди. В их числе лауреат Нобелевской премии мира Джоди Уильямс, поднявшая в этом году мощную кампанию «Остановить роботов». И соучредитель Skype Джаан Таллинн. При его участии в прошлом году в Кембридже был создан научный Центр по изучению угроз существованию человечества (Centre for the Study of Existential Risks). В списке четырех потенциальных угроз, стоящих перед человечеством, специалисты, в число которых входят известные ученые, философы и инженеры, поставили искусственный интеллект, изменение климата, ядерное оружие и биотехнологии (возможность создания искусственной жизни).

Однако не надо думать, что причиной для беспокойства специалистов и экспертов самого высокого уровня является точка зрения на то, что искусственный разум в будущем поглотит человечество. Основным катализатором всеобщей тревоги становятся все чаще проявляющиеся случаи превосходства искусственного разума над естественным.

Стоит сказать, что первые озабоченные подобным развитием событий голоса прозвучали еще в середине 1990-х, когда серьезный прорыв произошел в сфере интеллектуальной обработки информации и умные машины научились понимать содержание отдельных типов документов в своей массе лучше человека. Они умело разбирали документы, заменяя интеллект если не сотен, то десятков секретарей и операторов на отечественных предприятиях. Затем появились программы, способные разбираться в содержании больших архивов и делать на их основе соответствующие выводы и прогнозы. Самым же наглядным случаем превосходства техники, безусловно, стал проигрыш Гарри Каспарова компьютеру Deep Blue.

Сегодня мы уже имеем машины, которые действуют успешнее человека в шахматах, вождении автомобиля, понимании документов, финансовом трейдинге, распознавании лиц, речи и текста. Интернет кишит всевозможными ботами и инфами, способными давать комментарии по конкретным ситуациям и поддерживать беседу. Появились даже роботизированные системы документооборота, способные понимать, в какую внешнюю среду их устанавливают и адаптироваться под нее. Кстати, именно такая российская система «Е1 Евфрат» и стала объектом нападок со стороны отдельных пользователей интернета. Больше всего их обеспокоило то, что когнитивная система, использующая, в частности, алгоритмы самообучения, сможет самостоятельно развить деятельность в информационном пространстве организации и нанести ему урон. Конечно, у специалистов подобная постановка вопроса, как правило, вызывает улыбку. В системе «Е1 Евфрат» процесс самообучения происходит на локальном уровне и никаких шансов выйти из-под контроля у него нет. Таким же образом можно предположить, что ошибки, не замеченные, например, в бухгалтерской программе, способны разрушить жесткий диск, на котором она установлена.

Но в целом озабоченность общественности не удивляет. Подобных дискуссий нам не избежать, и по мере совершенствования технологий искусственного интеллекта они будут только учащаться и оживляться. Что говорить, когда сам Пентагон был вынужден прореагировать на принимающие массовый характер протесты американской общественности, обеспокоенной тем, что военные роботизированные аппараты начнут принимать критически важные решения самостоятельно. В итоге заместитель министра обороны США Эштон Картер даже выступил с заявлением гарантий того, что ни один из роботизированных военных аппаратов не будет принимать решения о нанесении вреда человеку.

И все же опасаться человечеству не стоит ни сегодня, ни в обозримом будущем. Вся обеспокоенность активистов лежит скорее в общественной плоскости, чем в научной или практической. Деятельность британского Центра изучения глобальных рисков, собственно, подтверждает, что такие же вопросы и настроения возникают и в других сферах жизни. Это обычная составляющая любого процесса развития. Главное, что является неопровержимым фактом, - это реальная эффективность применения систем с искусственным интеллектом. И многие, в том числе глобальные, проблемы, стоящие перед нами, как, например, Bigdata-обработка огромных объемов информации, накопленной человечеством, как и многие другие, без систем искусственного интеллекта не решить.

Технология делает нашу жизнь проще и качественнее, помогая нашему виду эволюционировать и развиваться. За последние сотню лет технологические программы медицины увеличили продолжительность жизни более чем на 40 процентов. Современный смартфон в кармане стал в тысячу раз мощнее и в миллион раз дешевле, чем самый продвинутый компьютер из 70-тых годов.

Стремительное развитие технологий по суждениям исследователей предрекает нам ещё больший рост продолжительности жизни с помощью умных машин, - они будут опекать нашу жизнь и здоровье. Возьмут в «свои руки» тяжелый и опасный труд, а управляя средствами повышенной опасности умные машины с искусственным интеллектом исключат проблему человеческого фактора. А человек в это время, наконец-то займется творчеством и созиданием бытия в тени философских рассуждений.

Но не случиться ли однажды так, что мы дойдем до той точки, качество перерастет в количество - где технологии вместо увеличения продолжительности жизни, развернуться против нас самих, времени, когда машины взбунтуются?

Перспектива поглощения человечества разумными машинами (по сути это вид, наделенный разумом) - одна из тем при разговоре о потенциальном поглощении человечества искусственным интеллектом. Катастрофическим результатом для нашего вида может быть создание суперкомпьютера с искусственным интеллектом вышедшем из под контроля, - рассуждают весьма серьёзные учёные. Это гипотетическое событие часто упоминается в качестве технологической сингулярности, и это беспокоит учёных.

Взять к примеру машину с искусственным интеллектом, которому поставлена задача изготовления скрепок. Такая машина будет делать скрепки реализовывая самый эффективный способ использования ресурсов, в которых нуждаются люди. Просто они запрограммированы так, выполнять свою работу наиболее качественно - но это же еще и умная машина, понимающая свою важность и необходимость.

Но как отреагирует машина, когда её конечная цель - изготовление скрепок - потеряет необходимость? Перестроиться на новые цели? Или обижено воспримет человеческое желание ее выключить как угрозу своему существованию, и устремиться уничтожить угрозу ее выключения (считай убийства) в лице человеческих существ?

Очевидно, это преувеличенный сценарий возможных событий будущего, но это свидетельствует о необходимости значительной проницательности в том, как именно машины с искусственным интеллектом могут мыслить в будущем. Ведь не секрет, что относительно примитивный машинный разум уже сейчас занимает весомую долю в управлении вооружением, и решает значительную часть вопросов нашей жизни. А что может произойти, когда контроль над этим получит развитый интеллект?

Будут ли эти машины уметь разбираться в нюансах человеческих мыслей и желаний? И еще, разумные машины с иным мышлением а то и высшего порядка, могут быть не обременены человеческими эмоциями и прочими когнитивными процессами. Однако, часть того, что делает нас людьми - это наши любопытство и наша неспособность дать ответы на вопросы, которые мы имеем уже сейчас.

Кажется, определенные ограничения могут быть неотъемлемой частью того, что означает быть человеком, и как ученые подозревают, на пути самореализации машинный разум может посчитать себя высшим существом по отношению к человеку.

Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?

Разумеется, при нынешних технологиях угроза искусственного интеллекта выглядит гипотетической, но уже сейчас отношение учёных к созданию искусственного интеллекта негативное. С недоверием относится к наступлению эры Искусственного Интеллекта и британский физик-теоретик Стивен Хокинг. Ученый полагает, что появление полноценного ИИ в нашем мире может стать для человека разрушительным фактором – обернуться гибелью человеческой расы.

Согласно Хокингу, машинный разум перехватит у человека инициативу развития и будет самосовершенствоваться, и эволюционировать с невероятной скоростью. Тогда как возможности человека к развитию сдерживаются слишком медленной эволюцией. Нам нечего противопоставить машинам на этом пути, мы проиграем эту гонку, - высказывает учёный своё отношение к ИИ.

Учёный беспокоиться, что в будущем технологический прогресс приведет нас к появлению разумных машин, способных превзойти интеллект человека. Но вместе с тем, Стивен Хокинг соглашается, что существующие примитивные формы ИИ доказали свою пользу.

Надо заметить, что большинство учёных, прогрессивно и скорее даже революционно мыслящих в плане получения "дивидендов" от научно-технического развития, очень и очень настороженно относятся к вопросу создания искусственного интеллекта. И вопрос даже не в том, что на каком-то этапе развития машинный интеллект сочтет своего создателя помехой или даже угрозой своего существования. Во что превратиться сам человек? - Вот беспокойство будит какой вопрос. Не разжиреет ли и отупеет человечество под крылом опекунства разумных машин? А ведь это, не что иное, как вырождение вида!

В тоже время, как оппонируют другие учёные, проблема искусственного интеллекта чрезмерно надуманна. В сущности, интеллект на электронной основе не сможет чувствовать и осязать, не сможет фантазировать - это возможности биологического мозга. А без этих компонентов какой бы разумной машина не была, она остаётся машиной - супермощным, продвинутым, но все же калькулятором с прошитыми вариантами развития.

Искусственный интеллект (ИИ) - тема, которая уже давно не сходит со страниц научно-популярных журналов и постоянно затрагивается в кино и книгах. Чем больше специалисты развивают эту область науки, тем большими мифами она покрывается.

Развитие и будущее искусственного интеллекта волнует и тех, кто стоит у руля государства. Не так давно президент РФ Владимир Путин посетил офис Яндекса в день 20-летия компании, где ему объяснили, когда ИИ превзойдет человеческий интеллект.

Все, кто хоть немного проникает в суть потенциала искусственного интеллекта, понимают, что оставлять без внимания эту тему нельзя. Это не только важная тема для обсуждения, но и, наверное, одна из самых значимых в контексте будущего.

Словом, заметные успехи есть и у нас в стране.

Чем быстрее развиваются технологии искусственного интеллекта, тем сильнее людей захватывает опасение - как быстро они останутся без работы. Все действительно так плохо?

И да, и нет. Человечество уже несколько раз сталкивалось с возникновением технологий, революционно изменивших всю производственную сферу.

Так было с паровым двигателем в эпоху промышленной революции практически уничтожившим многие профессии (в основном, связанные с примитивным физическим трудом), так было с электронными вычислительными машинами, которые заменили человека в задачах, основанных на поточных математических расчётах.

В XV-XVIII вв.еках, когда в Англии «овцы съели людей», социальные последствия были действительно катастрофическими. Англия потеряла по разным оценкам от 7 до 30% своего населения. Властная элита того времени была всерьёз озабочена тем, куда девать лишних людей. Джонатан Свифт откликнулся на эти искания юмористическим памфлетом, в котором предлагал употреблять детей бедняков в пищу.

Однако в наши дни мы видим, что на смену вымершим профессиям пришли новые, и население Земли куда больше, чем в XVIII веке. В XX веке последствия автоматизации были уже не столь катастрофичны с социальной точки зрения. Однако недооценивать опасность всё-таки не стоит.

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, - такой прогноз дал Моше Варди (Moshe Vardi), профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). Это приведёт к тому, что более 50% жителей Земли станут безработными».

Роботы забирают работы

На днях председатель комитета Госдумы по информационной политике, информационных технологиям и связи Леонид Левин заявил, что для России является важной проблема вытеснения рабочей силы искусственным интеллектом.

Рано или поздно людей заменят автоматизированной системой, и на рынок выплеснется 2% работоспособного населения страны. Именно поэтому о том, как их трудоустроить, тех, кто потеряет работу вследствие развития цифровых технологий, нужно думать уже сейчас сказал Левин.

По мнению председателя, уже в скором будущем мы столкнемся с ростом безработицы. Но действительно ли роботы «отберут» наши рабочие места и стоит ли беспокоиться по этому поводу рассказал «Ридусу» специалист по машинному обучению Сергей Марков.

Сергей, даже сейчас уже есть «мертвые профессии», которые не требуют человеческого труда, хотя, казалось бы, лет 10 назад никто и не думал, что, например, кондуктора скоро станут ненужными. А какие еще профессии вытеснят технологии?

Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле. Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост. Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? сказал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди при Университете Райса.

Долгое время на пути автоматизации стояли технологические ограничения - машины не могли распознавать образы и речь, не могли говорить, не могли достаточно хорошо понимать смысл высказываний на естественном языке, не имели достаточно данных для того, чтобы научиться многим привычным для человека вещам.

Благодаря последним достижениям в сфере искусственного интеллекта многие из этих ограничений фактически оказались сняты. Кроме того, многие профессии сами претерпели трансформацию, что сделало их более удобными для автоматизации.

Например, современный офисный клерк ведёт переписку не в бумажном, а в электронном виде, бухгалтер выполняет проводки не на бумаге, а в бухгалтерской программе, оператор станка управляет станком зачастую не при помощи рукоятей, а при помощи управляющей программы. Поэтому сейчас задача автоматизации во многих профессиях перестала быть научной и стала чисто инженерной.

Правда пока что производственная сфера, связанная с ИИ, скорее создаёт рабочие места - нужны специалисты в области машинного обучения и подготовки данных, сотрудники для разметки обучающих массивов, специалисты по внедрению и т. д. Но в какой-то момент электроовцы определённо начнут есть людей, и о последствиях нужно позаботиться уже сейчас.

При этом важно понимать, что остановить технический прогресс нельзя, и попытка это сделать обернётся куда более катастрофичными последствиями.

Мы сможем когда-нибудь полностью довериться роботам (ИИ), или все-таки в любом деле должен быть человеческий фактор?

У этого вопроса есть несколько аспектов. С одной стороны, люди в прошлом с опаской относились практически к любой технике. Первый лифт, первый автомобиль, первый поезд или самолёт - всё это когда-то было непривычным, и многим казалось опасным. Да во многом опасным и было - техногенные катастрофы унесли немало жизней.

И тем не менее в наши дни все эти вещи стали привычными и уже не вызывают сильного страха. В этом смысле - наши потомки будут относиться к системам ИИ более спокойно. Люди порой склонны мистифицировать вещи, которые им непонятны. Дикарь думает, что в паровозе живёт злой дух, а современный обыватель думает, что наши системы ИИ обладают сознанием, хотя это далеко не так.

С другой стороны, я не думаю, что универсальные системы ИИ когда-либо станут частью нашей производственной сферы. На мой взгляд будущее скорее за синтетическими системами - то есть за объединением человека и машины в единый организм. В этом смысле искусственным интеллектом будущего будет усовершенствованный человеческий интеллект.

Кстати говоря, человеческий интеллект тоже не совсем корректно называть естественным. Ребёнок от рождения не обладает интеллектом, всему его учит общество, родители, окружающая среда. В этом смысле мы с вами все по сути дела «искусственные интеллекты», и наши страхи, связанные с ИИ, во многом являются страхами перед самими собой.

Последнее время многие ученые, например, Стивен Хокинг , Билл Гейтс или тот же Илон Маск , начали паниковать, что ИИ обрекает человечество на гибель, а будущее они видят какой-то антиутопией. Стоит ли воспринимать такие прогнозы всерьез?

Честно говоря, я бы не спешил всерьёз пугаться этих заявлений. Стивен Хокинг, безусловно, не является специалистом в области ИИ, как, в общем-то, и Илон Маск.

На другой чаше весов высказывания таких людей, как например, Эндрю Ын - американский учёный в области информатики, доцент Стэнфордского университета, исследователь робототехники и машинного обучения, ведущий специалист лаборатории искусственного интеллекта китайской корпорации Baidu .

Ын, говоря о проблеме безопасности ИИ, сравнивает её с проблемой перенаселения Марса - конечно, мы когда-нибудь колонизируем Марс, и тогда, возможно, в какой-то момент там возникнет проблема перенаселения. Но стоит ли заниматься ей сегодня?

Марк Цукерберг также довольно скептически отнёсся к заявлениям Маска. «Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно», - заявил он.

Лично я думаю, что высказывания Маска стоит рассматривать в прагматическом ключе - Маск хочет застолбить эту тему и в идеале получить от государства средства для её разработки.

Неужели все так безоблачно и не о чем беспокоиться?

Реальные опасности, связанные с развитием ИИ, лежат, на мой взгляд, совсем в иной плоскости, чем об этом принято думать. Главные риски связаны не с тем, что мы своими создадим «Скайнет», который поработит человечество. Риски от внедрения технологий ИИ и машинного обучения куда более прозаичны.

Доверяя решение важных вопросов тем или иным математическим моделям, мы можем пострадать от ошибок, допущенных при их разработке. Искусственный интеллект, воспроизводящий действия людей-экспертов, унаследует их ошибки и предубеждения. Недоработки в системах управления производством или транспортом могут привести к катастрофам.

Вмешательство злоумышленников в работу жизненно важных систем в условиях тотальной автоматизации может повлечь опасные последствия. Чем сложнее системы, тем больше в них может быть потенциальных уязвимостей, в том числе связанных со спецификой тех или иных алгоритмов искусственного интеллекта.

Безусловно, для управления этими рисками следует создавать законодательную базу, разумные регламенты безопасности, специальные методы для выявления уязвимостей. Одни системы ИИ будут использоваться для контроля других. Возможно, код жизненно важных систем будет обязателен к публикации для независимого аудита. Словом, специалистам в этой сфере предстоит ещё много работы.

Понравилась статья? Поделитесь с друзьями!
Была ли эта статья полезной?
Да
Нет
Спасибо, за Ваш отзыв!
Что-то пошло не так и Ваш голос не был учтен.
Спасибо. Ваше сообщение отправлено
Нашли в тексте ошибку?
Выделите её, нажмите Ctrl + Enter и мы всё исправим!