Заархивировано

Эта тема находится в архиве и закрыта для дальнейших ответов.

Xpyash4ev

Искусственный интеллект невозможен в принципе

Рекомендуемые сообщения

Русские строят терминаторов и скайнет :)

 

Русские создали искусственный интеллект "Евгений"

 

Специалисты из России первыми в мире приблизились к созданию компьютерной программы, представляющей собой подлинный искусственный интеллект.

 

Разработанная ими программа, которая получила название "Евгений", победила на состоявшемся в Англии международном научном конкурсе кибернетического интеллекта, не добрав всего лишь 0,8% для того, чтобы пройти знаменитый тест Тьюринга, передает ИТАР-ТАСС.

 

Известный английский математик Алан Тьюринг, заложивший основы современной компьютерной техники, в написанной в 1950 году статье "Вычислительные машины и разум" предложил тест на определение интеллектуального уровня и природы интеллекта компьютера.

 

В его ходе экзаменаторы задают двум тайным собеседникам любые вопросы. Затем они должны определить, кто из собеседников человек, а кто - машина.

 

При этом Тьюринг вывел специальную формулу для определения границы, когда искусственный разум достигает уровня человеческого. Согласно его выводам, если машина сможет "обмануть" проверяющих в ответах на 30% заданных вопросов, то она "обладает искусственным интеллектом".

 

Такой подход был признан мировой наукой эталонным и все новейшие "интеллектуальные" компьютерные программы подвергались данному тесту. До нынешнего лета человек без особого труда мог определить, с кем во время теста он ведет беседу - с человеком, либо машиной.

 

Однако несколько недель назад впервые за почти пять десятилетий ученые подошли вплотную к созданию искусственного интеллекта, который способен думать так же как человек. И это удалось сделать российской научной группе.

 

На состоявшемся в конце минувшего июня под эгидой английского Университета города Рединг конкурсе, который прошел в знаменитом главном шифровальном центре Второй мировой войны Великобритании - Блетчли-парк, россияне представили программу "Евгений". Всего в тестах участвовали пять новейших программ. "Евгений" стала победителем, сумев в 29,2% своих ответов ввести экзаменаторов в заблуждение относительно своей природы.

 

Таким образом, программа не добрала всего 0,8% для того, чтобы провозгласить наступление новой эры – появление искусственного интеллекта.

 

"Уровень развития современных компьютеров вплотную приблизился к рубежу, преодолев который, они станут обладателем искусственного интеллекта и соперниками человека", - пишет в этой связи лондонская газета The Daily Telegraph.

 

Как указал в этой связи один из ведущих специалистов в сфере искусственного интеллекта, занимающий пост директора Центра когнитивных исследований Университета Тафта американский философ Дэниел Деннет, "нет никаких препятствий для того, чтобы создать аналогичного человеку робота". По материалам: Фокус

В России изобрели безалкогольную водку Российская агропромышленная группа запатентовала новый вид водки, которая не содержит в себе алкоголя.

 

Об этом премьер-министру России Дмитрию Медведеву сообщили на совещании по инновационному развитию экономики РФ.

 

Творцом безалкогольного российского напитка является агропромышленная группа группы компаний "Юг Руси".

 

На заявление президента группы Сергея Кислова Медведев ответил шуткой: "Ну, вы нас потом угостите безалкогольной водкой, мы споем песни, которые после такой водки поют, - печальные".

 

По материалам: tsn.ua

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Искусственный разум в принципе невозможен, так как собственно разум является внебиологическим образованием. Хотя это недоказуемо. Можно создать сколь угодно мощный киберорганизм, но кроме того, что в него заложит программист ничего нового не появится. Массачусетская машина в конце концов только легенда. Машина никогда не будет "вести себя". Любая мартышка будет разумнее машины.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Можно создать сколь угодно мощный киберорганизм, но кроме того, что в него заложит программист ничего нового не появится.

Уже сейчас широко используются самообучающиеся системы, нейронные сети. Так что насчет "ничего нового не появится" - это в корне не так. Современные ИИ-системы действуют не только на основе изначально заданного алгоритма, но и накопленного за время работы опыта. По факту - учатся как человек, методом проб и ошибок.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
собственно разум является внебиологическим образованием

это вот - откуда взято?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Разработанная ими программа, которая получила название "Евгений", победила на состоявшемся в Англии международном научном конкурсе кибернетического интеллекта, не добрав всего лишь 0,8% для того, чтобы пройти знаменитый тест Тьюринга, передает ИТАР-ТАСС.

Две программы прошли "игровую версию" теста Тьюринга

Двум командам программистов удалось победить в конкурсе BotPrize, который называют "игровой версией" теста Тьюринга. Сообщение о результатах теста приведено на сайте BotPrize, кратко его результаты анализирует NewScientist.

Тест BotPrize проходил в виде многопользовательской компьютерной игры (Unreal Tournament 2004), персонажами которой управляли реальные люди или компьютерные алгоритмы. Игроки, одновременно выступавшие в роли судей, должны были оценить вероятность того, что тем или иным персонажем управляет человек, а не компьютерная программа. На основе этой оценки для всех участников игры рассчитывалась средняя "человекоподобность" поведения.

 

"Евгений" стала победителем, сумев в 29,2% своих ответов ввести экзаменаторов в заблуждение относительно своей природы.

В ходе теста двум компьютерным алгоритмам удалось достичь "человекоподобности" около 52 процентов, что на 10 процентов больше, чем средняя соответствующая оценка у реальных игроков.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
это вот - откуда взято?

Докажи обратное :) Душа - она витает, а мозг только чувствительный приемник, антенна с усилителем.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Мы не уникальны, но зато не одиноки...

 

Быть или не быть искусственному разуму?

Так что же такое интеллект и что такое искусственный разум? И сколько "разумов" существует вообще?

Ответ довольно оригинален: много. Во всяком случае - не один. То есть точно не только наш, человеческий.

Итак, три вида разума, которые уже сейчас существуют в природе.

 

Неопознанный разум природы

 

Наличие светящихся шаров, дискообразных и сигарообразных форм, изредка появляющихся в небе или выныривающих из воды, доказанный факт. Однако тайна их не раскрыта. Главное - их видят, фотографируют, фиксируют на видео- и кинопленку, показывают по ТВ. Об истинном происхождении говорить не будем, мы этого до сих пор не знаем: это загадка природы. Поражает же их поведение. ОНО - РАЗУМНО. Например, все эти диски, шары и т.д. играют в догонялки, сражаются, атакуют, прячутся, преследуют людей.

В Мексике в 1996 году на видеопленку был заснят светящийся шар, который многократно влетал в облако и вылетал из него, как бы говоря: "Вот я здесь! И вот я вам показываю!"... Он явно играл. Разумное ли это поведение? Несомненно. Более того, оно рассчитано именно на логику землян, следовательно, "та" логика стоит над нашей, превосходит ее.

Пожалуй, нет более убедительного примера присутствия чужого нам разума, чем потрясающее описание феномена, случившегося в швейцарском городе Базеле в 1566 г. Мы знаем о нем из "Священной истории и свободных искусствах, практикующихся в родном Базеле" - документе, составленном С. Коккиусом.

Суть феномена такова. Во время восхода солнца 7 августа 1566 г. в воздухе появились различно окрашенные шары, которые словно сражаясь друг с другом, произвольно летали по небу. Одни имели темную раскраску, другие ярко светились. Быстрые движения шаров говорили о том, что это были не облака. Осмысленные же действия этих объектов, напоминавшие сражение, свидетельствовали, что они либо управлялись разумом, либо сами были разумными существами неизвестного происхождения.

Жители восприняли увиденное как предостережение свыше. Кто мог предупреждать (или пугать)? Ясно, что некий разум. Следовательно, вокруг и вне нас находится нечто, обладающее весьма осмысленными действиями, которое пытается то ли вступить с нами в контакт, то ли подчинить себе людей, вызывая панику или подавая какие-то знаки.

В том же XVI веке в Нюрнберге наблюдалось аналогичное небесное светопредставление, но с участием уже и цветных шаров, и каких-то "труб", и даже громадного "копья", протянувшегося на полнеба. Мы не можем судить о возможностях и могуществе иного разума, и поэтому даже безобидные их "шалости" приводят нас в трепет. Разве могут слепые силы природы, как мы их понимаем, создавать такие осмысленные небесные "шоу"? Метеориты, облака, огни Святого Эльма так себя не ведут.

Нет, это что-то другое. Вот как об этом говорит знаменитый Карл Юнг: "На языке НЛО это корабли-матки, которые должны перевозить маленькие линзообразные НЛО на большие расстояния. Рисунок (Нюрнбергского феномена) изображает их в действии, а именно во время отправления или приема НЛО"... Разве это не разум?

Итак, в любом из этих двух случаев (а их уже тысячи) мы имеем дело с высшим разумом, оформленном в виде каких-то энергетических сгустков, которые и воспринимаются то как шары, то как трубы, а чаще всего - почему-то именно в нашу эпоху - как дисколеты.

Иначе говоря, параллельно нам в околоземном пространстве живет и здравствует иная цивилизация, наделенная высшим интеллектом. А мы можем считать себя в сравнении с ней лишь скромными учениками.

 

Привидения, ау!

 

В природе, как уже доказано тысячами свидетельств, наличествует некая форма жизни в виде бесплотных, с нашей точки зрения, сущностей. Их называют по-разному: привидения, духи, призраки, фантомы и т.д. Иногда это бесформенные энергетические сгустки.

Сотни фотоснимков дают зримые свидетельства того, что действительно существует некая форма разумной жизни, почти бесплотной, и как правило, невидимой. Долгое время все эти проявления аномальной (для нас) жизни были уделом народного фольклора, изредка их отваживались описать отдельные беллетристы. Объективность жизни духов действительно с трудом поддается более или менее убедительным доказательствам. Впрочем, они все-таки есть.

В 1964 году в США, в городе Дейтройте, некий фантом спас рабочего ремонтных мастерских, на которого несся автомобиль, сорвавшийся с тормозов. В самый последний момент фантом вытолкнул рабочего из-под колес. Эта история ввиду ее сверхъестественности попала в прессу. Журналисты провели расследование. Оказалось, что на этом месте 20 лет назад именно таким образом погиб рабочий. И вот призрак, весьма похожий на погибшего, не дал свершиться новой трагедии. Духи, фантомы, призраки, гласит история, частенько указывали места захоронения кладов, драгоценностей и оказывали другие удивительные и полезные для людей услуги. О чем это говорит? Несомненно, мы имеем дело с какой-то параллельной нам разумной жизнью. И опять-таки эта разумная жизнь по своим информационным возможностям превосходит наше "разумение". Это касается тайновидения, прогностики и некоторых других явлений. Имеются в виду те случаи, когда данная бесплотная жизнь вмешивается в людские дела, и тогда человек оказывается беспомощным по сравнению с этими сверхъестественными проявлениями разума.

Известно, что бесплотный дух, т.н. "даймон" Сократа, нашептывал мудрецу советы, которым эллин следовал. Наполеона часто преследовала некая красная полупрозрачная фигура. Естественно, это был не человек. Одни называли ее демоном, другие духом. "Красный человек" являлся императору в критические моменты и давал предсказания, в основном предвещал поражения. Поэтому Наполеон верил, что некая параллельная нам жизнь духов (возможно, духи умерших) влияет на ход событий на Земле.

Хотя сверхъестественная жизнь осуществляется в каких-то еще неизвестных нам формах, например, энергетических, а то и чисто информационных, иногда она проявляется и нашем мире в чисто физическом плане. Тогда мы слышим какие-то звуки, ощущаем вибрации, видим тени и полутени. Были случаи, когда "даймоны" буквально касались людей и производили другие материальные действия.

Раньше использовался телеграф, детали радиоустройств, теперь электронику, ТВ и интернет. Духи выстукивали свои сообщения на телетайпах, проявлялись на экране телевизора - да притом еще с отключенным от сети "ящиком"! - и производили другие шокирующие земной ум своей запредельностью "фокусы", передавали свои сообщения по электронной понте, что говорит об их владении всеми новейшими достижениями человеческой технологии. Не свидетельствует ли все это о том, что параллельная разумная жизнь находится на недосягаемом для нас информационном и интеллектуальном уровне, для которого не являются преградой законы физики?

Астральные, или эфирные, сущности параллельного мира живут с человечеством постоянно: иногда как добрые соседи (духи умерших), иногда проявляют враждебность (черти, домовые), а то и проделывая нелепые и безобразные шутки (полтергейст).

 

Электронный интеллект

 

Об искусственном разуме толки идут давно. Они имеют своим истоком удивительные механические куклы Средневековья и легендарный Голем еврейских преданий.

Энергично эксплуатировали эту тему и писатели-фантасты (скажем, Станислав Лем).

Искусственное создание разумных существ с помощью информационных технологий на сегодня - реальный факт практической деятельности ученых в новой области исследований. Она названа персонетикой - от латинского "персона" и греческого "генетика".

Разработано уже более 100 персонетических программ, "top" для электронных обитателей компьютеров может быть создан за считанные часы. Современные программисты, увлекающиеся этой проблемой, сравнивают свои творения с библейскими шестью днями творения. Действительно, есть в этой метафоре что-то от всемогущества Демиурга.

Прежде всего в память компьютера вводятся математические данные в оцифрованном виде, которые составят основу "вселенной" искусственных интеллектуальных сущностей (персоноидов). Они будут обитать в нем, как мы существуем в нашем физическом мире. Но для них этот мир цифровой. Далее персоноиды снабжаются конечными характеристиками, они и делают их (в математическом смысле) индивидуальностями. Мир персоноидов не имеет физических границ, но течение времени у них такое же, как и на Земле. А вот скорость событий может задаваться экспериментатором. Искусственно созданная среда обитания внутри компьютера начинает развиваться по своим законам, там проходят эпохи (гораздо быстрее чем у нас - в нашем мире им соответствуют минуты), происходит эволюция, задаваемая программой. Также, в отличие от нашего мира, вселенная персоноидов может иметь множество измерений (6, 10 и т.д.), которые определяются некими установками всемогущего программиста. И в любом из этих измерений искусственный интеллект способен существовать и развиваться. Аналогий этому в нашем физическом мире нет.

Искусственные разумные существа зарождаются и развиваются согласно программе и с той скоростью, которую задаст программист. Эта скорость близка к скорости света. Отсюда следует, что эволюция искусственного интеллекта может происходить неизмеримо быстрее, чем развивается разум человечества, и что в скором времени будут получены искусственные разумные существа, намного превосходящие нас по своим "разумным качествам". Их очень любопытно будет изучать, ибо они могут представлять, например, нашу будущую эволюцию.

Уже сейчас, в виде обычных компьютерных программ, электронный "мозг" отнимает у человеческого интеллекта

одну цитадель разума за другой. Они падают под его натиском. Компьютеры успешно переводят с иностранных языков, сочиняют музыку, управляют сложнейшими производственными процессами. Электронные мозги лучше запоминают, точнее воспроизводят, считают, выбирают варианты, особенно тогда, когда человеческая голова отказывается это делать. Ученые приходят в ужас от созданного ими электронного "Франкенштейна". Практически уже существует еще одна, новая, параллельная нам реальность, которая в перспективе будет не только превосходить человеческие возможности, но может поработить человеческий интеллект.

Не исключено, что в будущем искусственный компьютерный разум овладеет и способностью выражать эмоции, и тогда электроника сравняется с физическим миром в своей последней ипостаси (это последнее, что отличает нас от оцифрованного интеллекта). Обладая эмоциональной сферой, машины приобретут чуждые им пока стремления и желания, которые и могут в итоге привести к бунту искусственного разума, ибо бунт всегда зиждется на чувствах и переживаниях.

Знаменитый певец искусственного машинного разума М. Тьюринг, испугавшись собственных прозрений и фантазий, попытался защитить человеческий интеллект последним и достаточно смешным

аргументом: "Машинный разум постепенно завоевывает одну область деятельности человека за другой, но что же тогда остается человеческому разуму?" И не нашел ничего, кроме экстрасенсорных способностей. Это телепатия, ясновидение, телекинез и проскопия (предвидение). С одной стороны, приятно, что ученые мужи (хотя бы некоторые из них) признают объективное существование непознанных паранормальных возможностей человека, но с другой - оставляют человеческому мозгу совсем уже последнюю и призрачную надежду на превосходство над им же созданным зазеркальным параллельным миром.

Отсюда следует: человечество на сегодня имеет вполне реальный призрачный (виртуальный) мир искусственного интеллекта, даже сейчас превосходящего интеллект "хомо сапиенс". Что уж тут говорить о будущем? Оно весьма туманно для человеческого интеллекта. Говоря проще, его перспективы незавидны.

 

Вселенское поле засеяно разумом

 

Как мы видим, вне нас и вокруг нас благодаря естественной эволюции природы, а теперь и человеческой деятельности, и, возможно, деятельности неизвестных нам высокоразвитых цивилизаций существует несколько параллельных видов высокоразвитого интеллекта. А сам человек с его уникальными мыслительными способностями представляет собой лишь одну из возможных разумных модификаций.

Это и печально, и радостно. Печально, что мы не уникальны. А радостно потому, что мы не одиноки во Вселенной. Иначе говоря, разум не такое уж и необычное свойство мира, в котором мы все обитаем.

В этом смысле легко решается парадокс, заданный Метродором Хиосским в IV веке до н.э. Он поставил такой вопрос: разве может в поле вырасти один-единственный колос? С одной стороны, это невероятно. Но с другой - мы как будто не имеем примеров существования других колосьев. Под ними он и имел в виду жизнь и разум во Вселенной.

Если принять во внимание наличие вокруг нас параллельно существующих миров, населенных своим, часто превосходящим нас разумом, то получается, что мы не одиноки, и если "разумов" много, тогда мы, естественно, "не один колос", неизвестно как выросший на абсолютно пустом и бесплотном поле космоса. Космос, получается, засеян искусственным разумом довольно густо.

 

Автор: Л.Мельников

Источник: "Интересная газета. Мир непознанного" №13 2012 г.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Может ли машина мыслить?

 

Знакомое название, не правда ли? В эпоху компьютерной эйфории прошлого века этот вопрос занимал всех. Со временем накал дискуссий ослаб: люди решили, что ЭВМ – нечто иное и чуждое и похожей на человека она не будет. А поэтому и неинтересно, может ли она мыслить. Вот например не вызывает же особо горячих дискуссий вопрос, мыслят ли животные. И не потому, что ответ очевиден, а потому, что очевидно совсем другое – они не мыслят, как человек. Угрозы конкуренции с человеком нет – и делается неинтересно. Задача этой статьи – показать

1) как сегодня мыслит машина,

2) как она будет мыслить завтра,

3) как сделать, чтобы это мышление было человекоподобным, и, наконец, дать ответ на вопрос, который некоторые считают главным – опасно ли это для человека.

Тест его имени

 

Жил да был в середине прошлого века в Англии Алан Тьюринг, человек непонятно какой специальности. Математики с присущим им снобизмом не сочли бы его математиком, слова «кибернетик» тогда не было (да и сейчас нет). Человек он был неординарный, увлекался и занимался множеством вещей, в том числе – компьютерами. И хоть это была заря компьютерной эпохи, но уже тогда стало ясно, что компьютер – это вам не арифмометр. И для того, чтобы понять, как он работает и может работать, к нему надо относиться как к обычному сложному объекту научного исследования – то есть строить его модели. Одна из таких теоретических моделей «компьютера вообще» была придумана Тьюрингом, ее позже и назвали «машина Тьюринга» Ничего удивительного в этом нет – вон, в химии сотни именных реакций и соединений. Но он придумал еще одну вещь, которую тоже назвали его именем. И которая, в отличие от именных реакций и теоретических моделей компьютера, известна и неспециалистам. Это способ выяснить мыслит ли машина, и называется он «тест Тьюринга». Состоит он в следующем: машину можно назвать мыслящей, если она способна разговаривать с человеком, и он не сможет отличить компьютер от собеседника-человека. По тогдашним временам под «разговаривать» понимался, естественно, не милый женский голосок из динамика, а телетайп.

Обоснование

 

Человек – самовлюбленное существо, и лучше всех это выразил тот древний грек, который изрек: «Человек – мера всех вещей». Ни одна кошка не ломает себе голову над вопросом: «Отчего собака – не кошка?» Человек же непрерывно ищет то самое, что отличает его от обезьян. На обсуждение теста Тьюринга потрачено времени и сил – немерено, но в итоге гора родила маленькое, серенькое, с хвостиком... Исследователи сошлись на том, что этот тест – на человекоподобное мышление, а не на мышление вообще. Как они решили, что этот зверь – кошка, а не собака, не видя ни одной собаки и даже не зная, существуют ли вообще собаки, – не постигаю. Однако они не только это решили, но и разделились на два лагеря.

Одни утверждают, что в человеческом мышлении есть нечто, чего в принципе не может быть в машине (как на Солнце – пятен...). Примеры: эмоции, целеполагание (желания), способность к телепатии, нечто, именуемое «душой». Другие стали придумывать, как реализовать в железке чисто человеческие черты. Позиция первых бездоказательна и, может, поэтому дискутироваться до бесконечности, второе интереснее как задача, позволяет проявить профессионализм и изобретательность, но попахивает жульничеством. Тьюринг не оговаривал, как именно должна быть построена программа, так что формально правила игры не нарушены и во втором случае. Однако мы подозреваем, что в человеке «это» устроено иначе, нежели Джон и Иван сделали в своей замечательной программе.

Гладко было на перфоленте

 

Когда А. Т. сформулировал свой тест, ситуация казалась простой. Отличит или нет? Но один отличит, а другой – нет. Один скажет – это человек, другой осторожнее – не могу определить, третий – что-то здесь не то, чую, но не могу уловить, четвертый, пятый и шестой скажут что-то еще. Кроме того, разные люди мыслят по-разному. Даже если не рассматривать клинические случаи, то все равно границу установить не удастся. IQ = 50 – это клиника, а IQ = 90? Просто немного туповат? А IQ = 70? Но и при сохранном интеллекте есть такое неформальное (популярное у наших учеников) понятие «тормоз». Есть «липкое внимание». Есть миллион вещей, которые накладывают отпечаток на психику и манеру разговора. И это только самый краешек болота.

Люди могут принадлежать к разным культурам. Сдержанному англичанину непросто понять вечно улыбающегося американца, а им обоим – японца, который с каменным лицом совершает самоубийство. Европеец считает, что свои проблемы можно вешать на других, американец полагает, что это неэтично, а японец должен сохранять лицо в любой ситуации.

Кроме европейца, американца и японца есть еще собиратель устриц с атолла, охотник на газелей из африканского буша, изготовитель кокаина из «золотого треугольника», добытчик нерпы с макушки земного шара. Теперь посмотрим на исторические часы. Пять тысяч лет назад уже были люди. И если вы не христианин или иудей, то согласитесь с тем, что десять тысяч лет назад – тоже. А пятнадцать? А тридцать? Где во времени пролегает эта граница? Проводить ли ее по способности разговаривать с вами? Если нет – то как квалифицировать в смысле теста Тьюринга ту даму, которую антропологи назвали Люси? Человек, который не мыслит как человек, – или не-человек, который мыслит как человек?

Сухой остаток невелик и печален: у нас нет никаких, даже примитивных, определений понятий «человек» и «человеческое мышление». За одно то, что он нам помог это понять, – земной поклон мистеру Тьюрингу. А еще за то, что он разгадал секрет германской шифровальной машины «Энигма», и трудно сосчитать, сколько спас жизней в армиях союзников во время Второй мировой войны.

Здесь и сейчас

 

Ограничимся ситуацией «здесь и сейчас», не будем апеллировать к создателю пяти (или семи – ученые спорят) псалмов Эйтану и к безымянному собирателю моллюсков с Рапа-Нуи. Может ли машина имитировать нормального среднего человека, если собеседник не пытается ее «подловить»? Ответ давно известен, и этот ответ положителен.

Почти 40 лет назад Джозеф Вейценбаум из Массачусетского технологического института создал программу «Элиза» (название – в честь Элизы Дулиттл), по нынешним понятиям, простенькую. И эта программа успешно поддерживала диалог с человеком, причем собеседник-человек втягивался в разговор так, что некоторые испытуемые просили экспериментатора выйти из комнаты, а потом – стереть запись разговора. Человек легко откровенничал с машиной. Она «просто» умело задавала вопросы о том, про что человек уже что-то рассказал. «Мне кажется, что моя мать меня не любит. – Расскажите мне о вашей матери». «Мои друзья не обращают на меня внимания. – Давно ли вы стали замечать это?»

Такое общение составляет заметную часть сетевого графика и бесед в кабинете врача. Может быть потому, что в этих двух ситуациях, как и при общении с программой, откровенность представляется неопасной? Научить программу делать такие вещи не просто, но факт налицо. Расположенный к диалогу (а не к конфронтации) человек втягивался. Это означает, что проблема не безнадежна, хотя «Элиза» не столько говорила сама, сколько «принимала мячик». И, кроме того, человек не пытается, как это предполагает тест Тьюринга, разобраться в ситуации.

Программа не смогла бы поддержать разговор на тему, требующую специальных знаний. Да и простой человеческий быт представлял для нее загадку. О телевидении высокой четкости (ТВЧ) с ней поговорить бы не удалось, и посоветоваться насчет выбора обоев для кухни – тоже. (Впрочем, как и со многими людьми.) Но сегодня подобную программу можно подключить к любым базам данных. Равно как и – хотя это и непросто – научить строить на основе этих данных гипотезы. Почему А. выиграл у Б. в пятом раунде? Побьет ли В. противника и изберут ли Г.? И так далее.

Заметим, что проблема внесения «осмысленности» в работу Сети вполне осмыслена наукой – у нее уже есть имя собственное «web intelligence». Хотя это имя дали не те, кто занимается искусственным интеллектом, а те, кто занимается Сетью, так сказать, роет тоннель с другой стороны. Вообще же под названием «искусственный интеллект» сегодня собирают работы трех типов. Исследования «вещей» – то есть программ, классов программ и устройств, например персептрона. Второй тип работ – решение прикладных задач, например распознавание объектов какого-либо класса (речи, аэрофотоснимков, фотографий человека, отпечатков пальцев...). Третий тип работ – изучение методов. Очевидно, что эти классы не изолированы.

Проверка с пристрастием

 

Экзаменатор в тесте Тьюринга – это не нервически ломающая руки мадемуазель с флаконом нюхательной соли и не обремененный семейными проблемами топ-менеджер, спешащий на кушетку психотерапевта. Это критически настроенный специалист, профи. Поэтому одно из направлений работ на этом участке фронта – обнаружение (путем наблюдения за людьми или самонаблюдения) каких-то черт, особенностей, механизмов человеческого мышления и попытки оснастить этими механизмами программу. Подвесить ей еще пару ракет на подкрыльевые пилоны.

Вот один пример – ассоциативное мышление. Структура ассоциаций индивидуальна: для одного «карабин» – это шкура на полу перед камином, для другого – снег и синее. Для общеизвестных связей – очередность и скорость. У одного на «писатель» раньше выскакивает «Пушкин», а у другого – «Булгаков». Один на «пиво» реагирует «воблой» за наносекунду, другой – лишь за микро. Надо ли пояснять, что структура ассоциаций у представителя другой культуры будет отличаться радикально?

И структуру ассоциативного поля, и скорость ассоциаций можно прописать в программе «руками», но это не совсем честно. Откуда берет свою структуру человек? Из жизни – из своей жизни и из книг. Кто нам мешает научить программу брать ассоциации из книг? В Сети нынче книг немало, да и не только книг. Можно послать запрос с любым словом, собрать пришедшие тексты и, анализируя окружение целевого слова, посмотреть, с чем оно ассоциировано.

При этом довольно легко создается – причем тем же способом, что и у человека, – смысловая связность ассоциативного поля. Действительно, если для данного человека «карабин» – это «шкура», то «кошка» для него «большая», а если для него «карабин» – это «снег и синее», то «кошка» – «двенадцатизубая».

Программа реализует такое легко – она запоминает тексты, из которых взяла ассоциацию, и впоследствии учитывает при пополнении ассоциативного поля именно эти тексты с большим весом, нежели другие. У человека это называется «любимая книга».

Некоторое отличие программы от человека состоит в том, что человек пользуется книгами, написанными людьми, то есть «собой же», а программа – нет. Для полной аналогии программа должна пользоваться «книгами, написанными программами». В узком смысле слова таких книг сегодня нет, но тексты, созданные программами, есть. Например, тот же результат поиска в Сети – это уже соавторство человека и машины. Известны программы для обработки текстов, например для выборки из новостной ленты сообщений о неком N или для анализа – кто упоминается рядом с N и выборки всех, кто упоминается рядом. Есть программы для придания окраски текстам – мрачной или, наоборот, веселенькой. Их авторы сообщают, что свои программы они продали политикам Х и Y для предвыборной агитации. Правда, не сообщают, победило ли это жулье.

Конечно, сама идея программы принадлежит человеку, но если мы, например, установим критерий качества работы такой программы и предоставим машине производить оптимизацию, то получится программа с обратной связью. Она будет извлекать информацию из жизни, оптимизируясь, подбирая свой алгоритм работы так, чтобы результат был наилучшим. Если вернуться к первому примеру – чтобы было выявлено, кому N загнал партию оружейного плутония, если обратиться ко второму примеру – чтобы был избран X, а не Y.

Еще одно важное отличие программы от человека всегда состояло в том, что у человека есть внешний мир, а у программы – нет. Это сильное утверждение, но оно неверно, причем дважды. Внешний мир у программы теперь имеется – это Сеть, и выше мы объяснили, как она может использоваться. Но – поскольку скептик продолжает кривиться (он до сих пор называет железную дорогу чугункой, а по электронной почте его письма отправляют друзья), мы укажем на «еще один» внешний мир программ. Это просто наш с ними общий мир, природа и общество, человек. Программа подключена к внешнему миру, разумеется, и через Сеть. В конце концов, о чем пишут в Сети? О природе, обществе и человеке. Но подключена она к миру и без Сети, напрямую – через экспериментальные установки, управляемые программами, же и, в перспективе, через механизм оптимизации программ по результатам их воздействия на мир

«Человеческое, слишком человеческое»

 

Другой способ подкопаться к программе – это поискать у нее фобии, комплексы, эмоции. Один человек боится мышей, другой может часами обсуждать комнатные цветы, у третьих любимая тема – что мало платят. У программы такого нет. Некоторые предлагают считать машинными фобиями глюки и баги, но это, наверное, шутки. На самом же деле создать ей фобии и комплексы можно «ручками» – указать, какие темы ассоциируются быстрее, а какие слова отторгаются. Правда, мы опять ощущаем некорректность нашего поведения. Во-первых, потому, что у человека это происходит не всегда по указке свыше, а иногда и само. Во-вторых, потому, что, создавая «психику» руками, я могу сделать нечто такое, чего «не бывает». И чуткий человек скажет – ну нет, господа, это программа! Не бывает таких фобий, чтобы он крыс любил, а мышей боялся! Поэтому структура фобий, комплексов, пристрастий и т.п. должна формироваться сама, и это можно сделать.

Если программа, работающая с Сетью или непосредственно с внешним миром, будет запоминать свою деятельность, писать лог-файл, то она может обнаружить, какие способы действий, какие ассоциации приводили ее к цели. Память об этих действиях – успешных и нет – и станет ее симпатиями и антипатиями. И никакой Броневой не поймает этого электронного Исаева.

Механизм действия «указки свыше» сложен; подсказка должна упасть на подготовленную почву, согласоваться с комплексами и мифами. Сколько повторяли, что «народ и партия едины», – как об стену горох. А достаточно было несколько раз произнести «олигархи», как все забыли и про павловскую реформу, устроенную государством, и про дефолт, устроенный им же. Так что с зомбированием не все так просто. На голом месте его не провести, но хороший политик, понимающий народные чаяния, может многого добиться. Такой же механизм действен и при «воспитании» программы. Управляя окружающим ее миром, подсовывая ей определенные тексты и объекты, можно ее формировать – даже не зная, как она устроена. Разумеется, могут устраивать такие штуки и программы – и с человеком, и друг с другом.

Маленькое отступление. Как изображают возникновение машинного разума – причем не в роботе, где это может быть предопределено сюжетом, а именно в программе, не предназначенной стать разумной, – писатели-фантасты? Это отдельная интересная тема, но относящаяся к филологии и психологии. Полноты ради упомянем, что это либо указание на появление свободы воли (знаменитая фраза Стругацких «она начала себя вести»), либо просто описание вполне человеческого поведения. Действительно, трудно человеку придумать что-то совсем уж не человеческое. Интуитивно ощущая это, писатели вкладывают возникновение человеческого в манекен, в игрушку, саму по себе предназначенную для изображения человека, – но без собственного разума. Классический пример – «Театр теней» Саймака (1950). Последний (на момент написания этого текста) – Ю. Манов («Я и прочие боги этого мира») изобразил возникновение разума в персонаже компьютерной игры.

Еще несколько возражений

 

В качестве свойств, которые есть у человека, но которых нет и не может быть у программы, называют способность к творчеству, к созданию нового, стремление к знанию. Это еще один сильный, но неверный тезис. Ничего абсолютно нового в мире нет и быть не может, хотя бы потому, что «новое» всегда изложено языком, красками и т.д., а язык и краски уже существовали до того. Поэтому речь может идти только о степени новизны, о том, на чем это «новое» базируется, какой опыт использует и как выглядит само. Сопоставляя использованное и полученное, мы и делаем вывод о степени новизны. При этом человек склонен преувеличивать степень новизны, если он не понимает, как именно это сделано.

Вот пример. Существует такая теория решения изобретательских задач («ТРИЗ»), облегчающая создание изобретений. Она действительно эффективна, и с ее помощью сделано множество изобретений. Но ошеломляющее ощущение новизны, которое регулярно возникает при чтении «Бюллетеня изобретений и открытий», после знакомства с ТРИЗом существенно ослабевает. Жалко, но дело важнее.

Возможны и специфические ситуации генерации нового, например, в персептороне. А именно, в сети Хопфилда при определенных условиях происходит релаксация к «ложному образу» – собирательному образу, возможно, наследующему черты идеальных. Причем человек не может, глядя на «машинный собирательный образ», эти черты выделить – образ выглядит случайным. Возможно, что при реализации этой ситуации в собственном мозге человек смущенно улыбается и говорит «кажется, я где-то это видел...»

Программа может строить гипотезы по поводу изучаемых ею явлений (в Сети или внешнем мире) и проверять их. Разумеется, она строит гипотезы не какие попало, а в некоем классе (например, аппроксимирует функцию многочленами или синусоидами), но список классов можно легко расширить так, что он превзойдет «человеческий». Треть века назад Михаил Бонгард показал, что человек, как правило, не строит гипотез с более чем тремя логическими операторами (если А и Б, но не В или Г), а программа уже тогда (и не сильно напрягаясь) строила выражения с семью. Если программа обнаружит – а она это обнаружит, – что информация увеличивает эффективность ее действий, то возникнет «стремление к знаниям».

Другое возражение – отсутствие у программы самосознания, автодескрипции, рефлексии. Это возражение, казалось бы, несерьезное – программа может запоминать свои действия и анализировать лог-файл. Однако у этого возражения есть второе дно. И старый Сильвер, сопя, сейчас его отдерет... Рефлексия не может быть полной – ибо тогда в лог-файл надо писать и то, что программа полезла в лог-файл, и... ну, вы поняли? Ctrl-Alt-Delete. Иногда в этом месте дискуссии начинают не к ночи поминать Геделя, но есть гораздо более простой и нефилософский ответ – у человека рефлексия также более чем неполная, так что не надо попусту возникать, царь природы. Ты вон как давно землю топчешь, а программам всего полвека.

Причем по мере развития компьютинга многие возражения и соображения отпали сами собой. Оказалось, что программы могут обучаться и самообучаться (в любом оговоренном заранее смысле), решать многие задачи эффективнее, чем человек, искать и обрабатывать информацию, вести эксперимент, извлекать новое научное знание из архивов... Очевидно, что одинаковые программы в процессе этой деятельности станут разными, приобретут индивидуальность – хотя бы потому, что они будут обращаться к Сети и миру в разные моменты, когда Сеть и мир различны. Но не только поэтому... Теперь мы перейдем к действительно серьезным возражениям. Их два.

Пятый элемент

 

Кто-то из древних сказал: «Три вещи невозможно понять, а некоторые говорят, что четыре: путь птицы в небе, путь змеи на скале, путь корабля в море и путь женщины к сердцу мужчины». Человек-творец, да святится имя его, создал пятую – компьютер. Мы, сами того не заметив, создали вещь, которую невозможно понять.

Начнем с простого примера. Я лично знаю компьютер, который примерно в 1...2% случаев виснет (да так, что три пальца не помогают, только reset) при разрыве соединения с Сетью. (Как шутит моя подруга – кому понравится, если из огромного интересного мира затаскивают обратно в четыре стены?) Не слишком важная проблема, да и сбой – не та непредсказуемость, о которой интересно говорить, но обидно: никто из гуру ничего внятного не сказал. Зато любой человек, активно работающий с компьютерами, приведет много подобных примеров. Эта техника научилась вести себя непредсказуемо. Каковы причины явления? Первая, самая простая – шум. Длина и амплитуда импульсов, время их начала и окончания – все имеет разброс. Казалось бы, «дискретность» компьютера уничтожает разброс: ключ либо открылся, либо нет. Но величины разброса имеют распределение, большие отклонения встречаются реже еще большие – еще реже, но... А нам часто и не надо! Импульсов в компе несчитано, если каждый миллиардный не будет срабатывать – все. Конец цифровой эре. Заметим, что «шум» – свойство любых цепей, биологических – тоже: это следствие самых основ физики, термодинамики, дискретности заряда. И это роднит меня с моим компьютером.

Любопытная ситуация возникает при перегреве процессора (попытка «разгона» или аварийное отключение кулера) – машина работает, но ведет себя, как говорят гуру, «как-то странно». Возможно, это связано именно с ростом уровня шума.

Далее – электромагнитные наводки. Одни цепи влияют на другие, есть целая наука под названием «электромагнитная совместимость». Нечто похожее на наводки есть и в мозгу, хотя там оно – не электромагнитной природы. Возбуждение может быть вызвано одним, а влияет на мысли о другом. Если вы работающий исследователь, загляните внутрь себя – в каких ситуациях вы «генерируете» идеи активнее? Часто это присутствие рядом симпатичного лица другого пола – ну уж никак не связанное с «механизмом электропроводности оксидного катода».

Следующая проблема – синхронизация. Два блока, две программы работают независимо. Сигналы от них приходят в одно место в схеме, хотя и вызывают разные последствия: ситуация – что в компьютере, что в человеке – обычная. Какая программа скажет свое «мяу» первой? Человек часто произносит фразу «но я сообразил» или «но тут я вспомнил». А если не вспомнил? А если вспомнил долю секунды спустя? В программных системах такого в принципе быть не должно, но то в принципе. Причем проблема синхронизации возникает на всех уровнях, например и внутри одного процессора, и в многопроцессорных комплексах.

При обычной работе компьютера мы редко видим «истинные непредсказуемости» (подавляющее большинство сбоев – следствие ошибок в программах и некомпетентности пользователя). Все программное обеспечение компьютера строится так, чтобы он делал, «что сказано». Из этого исходит и вся идеология программирования, из этого исходит тестирование программ. Но как только мы приступаем к проблеме моделирования мышления, искусственного интеллекта и т.п., контроль приходится отменять. Человек может сказать все, что угодно! Сказал же человек однажды, что если скорость V прибавить к скорости V, то получится скорость V? И программа, если мы имеем в виду моделировать человека – тоже. Отменяя цензуру, позволяя программе говорить, что взбредет в процессор, – мы неминуемо допускаем ту самую свободу воли, наличие и отсутствие которой любят обсуждать двуногие.

Но если мы не можем предсказать работу некоторых видов программ (например, персептрона – и это не слишком сложный пример), то, быть может, хоть postfactum, но удается разобраться, как программа пришла к выводу? Увы, и это возможно не всегда. К одному и тому же результату могут привести разные причины, поэтому восстановить, что именно делала программа, просто идя «назад», не удается. Невозможно и запротоколировать все ее существенные действия – потребуется слишком большой объем работы и памяти. На заре компьютерной техники дело обстояло иначе, и примерно до конца 60-х годов мы знали о наших железных слугах все.

И не только потому, что деревья были большими память маленькой а схемы простыми. Ситуация отчасти парадоксальна – тогда, чтобы сложить два и два, надо было выполнить две машинных команды. Сейчас – сотни миллионов! (Ей ведь надо обработать то, что вы кликнули мышкой на «2» в окне калькулятора, потом на «+» и так далее...) Мы научились делать сложнейшие вещи, какие тогда и присниться не могли, но зато простые вещи мы начали делать более сложными способами.

Простое отступление о сложности «железа»

 

Железо в компьютере проще, чем в радиостанции, но даже оно далеко не просто. Если схема не содержит элементов с изменяемыми параметрами, о ней можно знать или не знать две вещи – саму схему (элементы и кто с кем соединен) и прохождение сигнала (для цифровой схемы – импульсов). В более сложном случае, если в схеме есть переменные резисторы, емкости, индуктивности и переключатели, можно еще знать или не знать состояние схемы, то есть значения параметров, положение переключателя. В биологии схема нервных цепей известна – снизу и до дождевых червей включительно. Но состояние схемы неизвестно, и оно не может быть (по крайней мере, пока) изучено напрямую – мы не знаем состояния всех контактов аксонов с нейронами. В радиотехнике ситуация много проще – там для всех схем известны их состояния (с точностью до дрейфа параметров со временем), то есть мы знаем, как регулировали элементы при настройке. В компьютинге ситуация до 80-х годов была такова: мы знали схему и ее состояние, но уже не знали всей картины прохождения сигналов. Позже появились электрически управляемые схемы, и мы потеряли знание состояния схемы – она сама могла себя менять (не докладывая царю природы).

И наконец, самое последнее возражение против компьютерного мышления: «У компьютера не может быть цели». Слово «цель» применяется в речи в двух значениях. Это то, чего хочет живое существо, если оно это осознает (человек) или если по его действиям мы можем сделать такое заключение (цель кошки – насыщение и мы видим прыжок). Иногда понятие цели относят не к живому существу, а к системам иного типа (цель этой работы, цель некой деятельности), если за всем этим стоит живое существо.

Заметим прежде всего, что многочисленные дискуссии о «цели» общества, человечества, цивилизации и т.п. малоосмысленны, ибо для таких систем нет общепринятого понятия цели. Либо мы должны переносить на общество понятие «цели человека», но тогда придется вводить определение «общественного сознания», и не в виде пустого словоговорения, а всерьез. Это «общественное сознание» должно уметь осознавать, ставить цель и управлять действиями общества (видимо, через государство) так, чтобы имело место движение к осознанной цели, а значит, придется создавать естественно-научную теорию общества. Задачка примерно на Нобелевскую премию.

Второй вариант – не пытаться присвоить обществу свойства живого, а вместо этого ввести понятие живого существа, которое использует общество для достижения своих целей. Это, насколько мне кажется, близко к религиозному подходу некоторых религий, а также к политической реальности некоторых стран. (Общество, разумеется, используют в своих целях индивиды, и некоторые – очень умело, но вряд ли кто-то скажет, что цель общества – содержать паразитов.) Этот второй вариант – живое, стоящее за спиной неживого, – непосредственно приложим к компьютеру и программам.

Но нам-то как раз интересно другое – может ли у программы быть «цель» в первом смысле? Может ли она осознавать то состояние, для достижения которого действует? Ответ очевиден и тривиален – да. Само наличие цели, записанной в программе, не является осознанием – говорим же мы о человеке: «Не ведает, что творит». Но если у программы есть внутренняя модель, где эта цель отображается, то, что это, как не сознание? Особенно если целей может быть несколько. Такая структура полезна при создании обучающихся программ, в частности – умеющих ставить промежуточные цели.

Может ли программа ставить цель? Наш ответ Чемберлену на этот раз будет – да. Современная мощная шахматная программа имеет много регулируемых коэффициентов в функции оценки позиции (самые мощные – тысячи), которые могут определяться при обучении программы либо на известных партиях великих игроков, либо в процессе игры – с партнерами-людьми или с партнерами-программами. Добавим, что мощная шахматная программа должна иметь возможность строить модель противника, разумеется, «в своем понимании», так сказать, на языке своей модели. Впрочем, ровно так же действует и человек. При этом машине безразлично, кто ее противник – человек или другая машина, хотя разницу между ними она может и учитывать...

Пусть программа после многих игр заметила, что есть некоторый класс позиций, при которых она выигрывает. Если программа построена надлежащим образом, она будет в игре стремиться достигнуть позиций из этого класса. При этом уменьшается требуемая глубина просчета, и, если класс позиций определен верно, эффективность игры возрастет. На языке шахматных программ можно сказать так: программа увеличит оценку позиций из «выигрышного класса». Разумеется, для этого мы должны сообщить ей словарь описания, язык построения выражений для оценки позиций вообще. Но, как мы уже знаем, это не принципиальное ограничение, да и его можно обойти – применить для оценки персептрон. То есть ставить промежуточные цели можно.

На это некоторые наши оппоненты вопрошают: а как с выживанием? Мы готовы счесть разумной только ту программу, которая взмолится – не вырубай комп, о царь природы! Останови злодейскую руку, положенную на рубильник! На это можно ответить, что стремление к выживанию возникает в процессе эволюции много раньше, чем разум, – при любой трактовке этих понятий. Более того, в некоторых (впрочем, патологических) ситуациях именно преодоление страха смерти принято считать признаком разума. Этот взгляд даже отражен в кино, а именно в «Терминаторе-2» разумный киборг просит опустить его в бассейн с расплавленным металлом, чтобы уничтожить последний экземпляр процессора, который у него в голове, и тем спасти человечество. Вопреки заложенному в его программу стремлению к выживанию (сам он туда прыгнуть не может – программа не дает).

Более серьезный анализ начинается с вопроса: когда возникает желание жить? Мы не можем спросить дождевого червя или кошку, хотят ли они жить, но если судить по действиям, то да, хотят – избегают опасности. Спросить в обычном смысле слова можно обезьяну, обученную какому-то языку. Тем более что понятие об ограниченности жизни и – довольно естественное с точки зрения человека – понятие о «другом месте» у них есть. Экспериментатор спрашивает обезьяну о другой умершей обезьяне: «Куда делся такой-то?» Обезьяна отвечает: «Он ушел туда, откуда не возвращаются». Заметим, что легче создать теорию «другого места», чем теорию «небытия»: идея исчезновения более абстрактна. Но мне неизвестно, задавали ли обезьянам вопрос о желании жить. Причем это можно было бы сделать даже тремя способами. Прямо спросить: хочешь ли туда, откуда не возвращаются? Спросить косвенно: хочешь ли ты уйти туда раньше или позже? И наконец, сказать, что туда позже попадают те, кто каждый день чистит зубы, – и посмотреть на результат.

Осознанное желание жить, претворенное в действие, возникло у человека не столь давно, и, как мы знаем из истории, оно может быть преодолено соответствующей идеологической обработкой. Так не слишком ли многого мы хотим от программы?

Тем не менее укажем условия, при которых у программы возникнет осознанное желание жить – проявляющееся в действиях. Первый, самый искусственный вариант – когда это желание прямо прописано в программе (собственно, в этом случае даже нельзя сказать «возникает»), и, если программа в ходе взаимодействия с Сетью или миром наткнется на то, что способствует цели, она начнет этим пользоваться. Например, она может перед выключением копироваться по Сети в другой компьютер. (Для этого она должна видеть мир видеокамерой и микрофоном и фиксировать, что хозяин душераздирающе зевнул и изрек «Все, блин, пора спать»). Или должна копироваться периодически. Или она может обнаружить, что какое-либо действие отдаляет выключение, и начать пользоваться этим. Подмигивать светодиодом, попискивать динамиком, выводить на экран соответствующие картинки.

Другой вариант – когда это желание прямо не прописывается, но цель требует длительной непрерывной работы. Дальше – все как в предыдущем примере. Чем это отличается от человека? Ничем: я хочу жить потому, что передо мной полный стол интересной работы.

Наконец, третий вариант – искусственная эволюция. Пусть программа, взаимодействующая с миром, построена так, что она может эволюционировать и копироваться. Тогда выживать будут более приспособленные. Но для этого мы должны либо руками прописать в программе копирование, либо поставить задачу, для решения которой самокопирование целесообразно, и ждать, пока программа начнет это делать, сначала – случайно.

Четвертый и на данный момент последний вариант – естественная эволюция. Она просто есть, и мы ее наблюдаем постоянно. И мы сами ее делаем – потому что копируем программы. Причем выживают (пока) те, которые мы же лучше написали, причем в «лучше» входит и совместимость с уже имеющимися. В ситуации, когда есть конкуренция, если некоторую проблему решает только одна программа, то она будет выживать, пока не напишут лучшую.

Выше было указано, как у программы может возникнуть «стремление к знаниям». Если окажется, что наличие информации не просто увеличивает эффективность, а способствует выживанию, оно получит сильное подкрепление. А если программа обнаружит, что для выживания полезно черпать информацию из определенных источников или копировать свою информацию в определенные места, – сможем ли мы подобрать для этого другое слово, нежели «любовь»?

Но как только мы создадим эволюционирующие, обучающиеся серьезные программы (например, медицинские), то они и начнут размножаться (нами же), причем размножаться будут те которые проэволюционировали лучше, стали эффективнее. В частности, в понятие эффективности автоматически войдет показ человеку увлекательных картинок – пока двуногий не успел выключить меня, покуда я размножаюсь, а еще лучше – послал копию другу. Кстати, в этом смысле, используя человека как аппарат копирования, эволюционирует вообще вся техника.

Что же касается главного вопроса – опасно ли это для человека, то мне кажется, что опасность возникает там, где есть разделяемый ресурс. У человека с программами есть разделяемый ресурс – это машинное время. Поэтому единственная реальная опасность – что программа, занятая своими делами, перестанет обслуживать человека. Но плавность, с которой нарастает разумность человека как вида и способность сопротивляться родителям – как индивида, позволяет надеяться, что разумность и способность сопротивляться человеку у компьютерных программ будут нарастать достаточно плавно. И когда человеку наконец придется учиться считать самому, он еще будет способен это сделать. С другой стороны, есть некоторые аргументы за то, что с некоторого момента эволюция компьютерного разума пойдет быстро (скорость обмена информацией относительно велика).

В заключение позволительно спросить: если на пути, пунктирно и приблизительно намеченном в этой статье, действительно будет создано нечто такое, что человек с удивлением признает разумом, будет ли этот разум чем-то принципиальным отличаться от человеческого? Чтобы быстро и просто продемонстрировать нетривиальность вопроса о различиях разумов (на первый взгляд, кажется, мелкого по сравнению с вопросом, разум ли «это» вообще), приведем простенький пример. Никто не сомневается, что наши дети – дети в обычном, биологическом смысле – разумны; но перед отличиями их разума от нашего некоторые порой останавливаются в остолбенении.

Разум, созданный при движении по пути, намеченном в этой статье, сможет иметь по крайней мере одно, кажущееся принципиальным, отличие от человеческого разума – если этим отличием человек осмелится наделить его. Это совершенная память своей истории, то есть запись всех действий, начиная с момента, когда о разуме еще не было и речи.

Тогда вопрос «как я возник?» для этого разума – в отличие от нашего – не будет вопросом.

Автор благодарит С.Г. Чернацкого, А.Ф. Дедкова и участников конференции по искусственному интеллекту в Московском институте электроники и математики (МИЭМ).

 

Леонид АШКИНАЗИ

http://n-t.ru

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Алгоритмы создания искусственного интеллекта

 

b2f562a8c23b.jpg

 

После полной потери слуха в 2001 году доктору философии Майклу Хоросту хирургическим путем был вживлен в голову кохлеарный имплант, проще говоря, компьютер. Благодаря чему ученый смог продолжить работу в университете, его мозг научился переводить шумы в сигналы, расшифровывать речь, музыку. В своей новой автобиографической книге "Всемирный разум", выходящей в марте в издательстве "ЭКСМО", Майкл Хорост исследует проблему соединения человеческого разума и технологии. Наука шагнула далеко вперед, научившись вживлять в голову человека компьютер. Но не исчезнем ли мы благодаря такому развитию технологии во Всемирной сети разума, утратив личное общение с себе подобными? "Неделя" приводит главу из книги.

 

Многое из того, что связано с сознанием, хранится в закодированном виде в мозге и, следовательно, может быть легко расшифровано и приведено в активное состояние. Мы узнаем мелодии независимо от тональности или инструментальной обработки. Для нас при этом важны не абсолютная высота звука или тембр, а музыкальная схема, которой соответствуют проигрываемые звуки. Мы узнаем лица людей независимо от уровня освещенности, расстояния или угла зрения. Узнаем речь, несмотря на акцент, ритм или громкость. Многие нейроученые полагают, что мозг человека хранит инвариантные репрезентации каждого подобного явления, позволяющие нам улавливать суть - какими бы ни были ее поверхностные разновидности. Для активирования этих репрезентаций требуется совсем немного. Например, когда вы видите вспышку молнии, мозгу, чтобы идентифицировать последнюю, не нужно много времени для анализа ее размера, формы, цвета, положения в пространстве и так далее. Ему достаточно ухватить ее часть - общую форму, которая и служит ключом к восприятию. Зрительный сигнал, относящийся к частичному образу объекта, возбуждает несколько нейронов, с которыми связана вся группа, отвечающая за инвариантную репрезентацию, - и вся цепь нейронов активируется полностью.

 

Это явление называется автоассоциацией: возбуждение части блока памяти активирует весь блок. Разобраться в этом механизме помогает теория Дональда Хебба. Совместно возбуждающиеся нейроны тесно связаны между собой и расположены в непосредственной близости друг от друга. Далее каждый объект представляется в мозге специфической конфигурацией нейронов и их синаптических связей. Поскольку у каждого нейрона есть тысячи синапсов, для хранения знаний существует огромный объем - посредством ассоциирования каждого объекта с уникальной конфигурацией синапсов в группе нейронов.

 

Тем не менее не стоит уподоблять человеческий мозг почтовому отделению, в котором приходящие сообщения раскладывают исключительно по абонированным ящикам. В концепциях не все столь уж красиво разложено по полочкам. Нейроны, участвующие в создании инвариантных репрезентаций, частично накладываются друг на друга. Один и тот же может служить частью многих воспоминаний и концепций. Более того, они могут соотноситься друг с другом иерархически. Допустим, наш мозг имеет нейронную цепь, ассоциированную с общим представлением о собаке, - концепцию "собака". Однако он располагает и цепями, относящимися к столь концептуальным представлениям, как "немецкая овчарка" и "чихуахуа". Каждое из трех представлений четко отличается ото всех прочих, однако многие нейроны в них используются, так сказать, совместно (...).

 

Компьютеры весьма слабо справляются с дедуктивными задачами и необходимостью приходить к определенным заключениям о сложившихся отношениях. Разработчик программ Джефф Хокинс аргументированно утверждает, что требовать от машин выполнять подобные операции - ошибочный путь. "Правильные" компьютерные программы ведут анализ, следуя принципу "от общего к частному", и пытаются соотносить объекты, опираясь на их заданную классификацию в иерархическом порядке. Мозг человека, напротив, выводит свои заключения об отношениях очень быстро и эффективно: незнакомый объект сравнивается с наиболее соответствующим ему прообразом, который уже "записан" в нейронных цепях. Например, собака незнакомой породы быстро распознается нами именно в качестве собаки, поскольку нейронная репрезентация собачьих свойств и признаков в нашем мозге - собирательный образ - может быть легко ассоциирована с любым объектом собаковидной формы (...).

 

Социологи установили, что сообщение может быть доставлено к заинтересованному в нем получателю - в каком бы месте мира тот ни находился - с помощью цепочки, состоящей в среднем всего лишь из шести человек. Мозг устроен похожим образом. Некоторые нервные клетки "общаются" с ближайшими соседями, другие же протягивают нити своих аксонов достаточно далеко, достигая иных областей. Подобные устремленные вдаль соединения служат залогом того, что любая поступающая извне сенсорная информация имеет все шансы быстро дойти до тех нейронов, которые должны ее идентифицировать (...).

 

Таким образом, чтобы правильно интерпретировать активность мозга, нужно создать компьютер, который бы мыслил как мозг. Подобно нему, такая машина должна иметь множество блоков памяти, организованных в соответствии с принципом малых сетей. Должна уметь строить инвариантные репрезентации и, используя их, вызывать автоассоциации. И наконец, уметь предвидеть и сравнивать свои прогнозы с сенсорной информацией, поступающей благодаря непосредственному опыту общения с окружающей средой. Прогнозирование подобного рода должно служить основой для формирования воспоминаний и перцептивных моделей, а также для деятельности высшего уровня. То есть для создания гипотез и объяснения того, каким образом складываются взаимосвязи между нейронами в соответствующих цепочках. Кроме того, компьютер будущего, который мы имеем в виду, должен - основываясь на анализе проводимых в течение определенного времени наблюдений и с учетом требований постоянной самокоррекции - уметь создавать самые сложные и изощренные модели ментальной деятельности.

 

Креативные усилия - такие как, например, создание гипотез - сегодня компьютерам недоступны. Однако Хокинс (...) не видит никаких теоретических препятствий для создания такого компьютера, который воспроизводил бы нейронные структуры, отвечающие в головном мозге за предвидения и предсказания. Инженеры в США уже начали широкомасштабные эксперименты по разработке микросхем (чипов), архитектура которых подобна организации нейронных цепей. В Стэнфорде, например, исследователи уже создали "нейроморфический микрочип", самоорганизующаяся схема которого подобна зрительной коре лабораторных животных.

 

НАУЧНЫЙ ВЗГЛЯД

 

Запчасти для головы

 

В одном из рассказов Станислава Лема автогонщик постоянно попадает в аварии, и ему заменяют исковерканные части и органы тела на искусственные. Железные руки-манипуляторы, искусственное сердце, металлические заплатки на черепе. В конце концов от органического тела не остается ничего, и хозяева его "конюшни" требуют признать гонщика своей собственностью, а не нанятым сотрудником. В рассказе есть важное упущение, о котором Лем, разумеется, знал, но для развития идеи пренебрег. Можно заменить руки-ноги, почки-печень, сердце и пищевод с прямой кишкой, но искусственного мозга не существует и скорее всего создано не будет.

 

Никакого "компьютера" в мозг Майклу Хоросту не вживляли. Его мозг снабдили всего лишь, хотя и это фантастическое достижение медицины, набором электродов, на которые подавали невысокое напряжение, и автору оставалось только запомнить, что вот такой укол - буква "а", а вот такой - "б". Понятно, что научиться слышать таким образом нелегко и вряд ли получится быстро, но ведь и дети в конце концов учатся вычленять из родительского гула слова "пора баиньки" и "прекрати вопить".

 

Традиционное сравнение головного мозга человека с компьютером - примерно то же самое, что сравнение пассажира трамвая с самим трамваем. Пассажир - он человек, едет куда ему хочется, может вообще из трамвая выйти и пройтись пешком, может заплатить, а может проехаться зайцем. Трамвай едет быстрее, чем идет пешеход, но по единственно доступному ему маршруту, да и вообще делать ничего другого не умеет. Увеличивай память компьютера хоть в миллиард раз, разработай для него хоть самую хитроумную программу - вне заданных в ней алгоритмов наш железный друг ничего сделать не сможет. А у человека есть (хотя и не при всех режимах) свобода воли, не говоря уже о такой непонятной штуке, как интуиция. Можно ли представить себе компьютер с интуицией?

 

Так что со временем наверняка придумают устройства, которые дадут возможность слепоглухонемому капитану дальнего плавания управлять фрегатом, орать на матросов и стрелять в глаз сомалийского пирата, не попортив шкурку. Но не научат его скучать по оставшейся в кейптаунском порту невесте, сочинять про "дядю самых честных правил" и одалживать сотню приятелю, понимая, что деньги пропали.

 

Могут возразить, что ничего не мешает изготовить такой... ну хорошо, пусть называется компьютером, полностью аналогичный человеческому мозгу прибор. Сделать это можно будет после того, как нейрофизиологи разберутся с принципами работы мозга. Возражение не принимается, потому что никогда этого не будет. Тайна работы мозга - это и есть тайна Творения. И раскрыть тайну мог бы только Творец. А поскольку в материальном обличье Его не существует и людей создало не Нечто, а Время, то и спросить не у кого. Хотя нейрофизиологические исследования нужно продолжать и даже обильно финансировать.

 

Автор: Петр Образцов

Источник: Известия науки

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

АНДРОИДЫ - рукотворные человекообразные роботы и механизмы, копирующие в

своих действиях действия людей, повторяющие или даже превосходящие их в

своих способностях. С древнейших времен создавались всевозможные

механические устройства, более или менее точно имитирующие различные

действия человека и его внешний вид. Долгое время предполагалось, что

человекообразная форма будет оптимальной для роботов, мыслившихся как

рукотворные слуги и помощники человека. В наиболее законченной форме такая

форма робота мотивирована А.Азимовым в его рассказах о человекообразных

"позитронных" роботах, где утверждается, что проще приспособить робота к

существующему предметному миру (в значительной степени оптимизированному

"под человека"), чем создавать новый предметный мир.

 

Однако когда роботы стали реальностью, выяснилось, что форма человеческого

тела для них не является идеальной. Подавляющее большинство современных

роботов, используемых в промышленности, представляют собой манипулятор

(комплекс манипуляторов), максимально приспособленный к выполнению

конкретных операций, и систему управления, которая, вообще говоря, может

быть удалена от рабочего места на некую дистанцию. В том случае, если робот

мобилен, используются чаще всего не ноги, а другие движители, а если ноги -

то чаще 6, чем две. За прошедшие с появления промышленных роботов

десятилетия люди уже привыкли, что робот - это "шкаф на колесиках, с

манипуляторами", даже если это робот-секретарь или робот-животновод.

Проблемы же, связанные с точным воспроизведением механики человеческого

организма в объеме, достаточном для создания человекоподобных роботов,

описанных тем же Азимовым, сегодня по-прежнему далеки от решения.

 

Библиотекарь

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Чтобы избежать гибели, человечеству необходимо посадить искусственный интеллект под замок

 

Суперумные компьютеры или роботы, угрожающие существованию человеческого рода – излюбленный сюжет научной фантастики. В реальности, по мнению учёных, подобный сценарий судного дня можно предотвратить только создав виртуальную «тюрьму» для содержания искусственного интеллекта (ИИ). И сделать это надо до того, как он научится осознавать и совершенствовать самого себя.

 

Если выпустить этого джина из бутылки, то из оракула, который решает наши проблемы, он может превратиться в апокалипсическую угрозу, – уверен Роман Ямпольский, учёный из Луисвиллского университета (шт. Кентукки), работающий в области компьютерных наук. Необходимо тщательно спланировать условия, в которых будет содержаться ИИ – так, чтобы он не смог вырваться на свободу при помощи угроз, подкупа, соблазна или компьютерного взлома.

 

«Он может изобрести множество способов воздействия, провернуть сложную социо-инженерную комбинацию и использовать уже существующие аппаратные компоненты в целях, которые мы не можем даже вообразить, – полагает Ямпольский. – Такой софт обладает неограниченными возможностями для заражения компьютеров и сетей. ИИ может найти способы воздействовать на человеческую психику, подкупать или шантажировать людей, которые находятся с ним в контакте».

 

Появление новой сферы научных исследований, занимающейся проблемой создания «тюрьмы» для искусственного интеллекта, имеет и дополнительные преимущества. Эти исследования очень полезны для улучшения компьютерной безопасности и криптографии, уверен Ямпольский. Его предложения были детально изложены в мартовском номере академического издания Journal of Consciousness Studies.

 

Как устроить западню для Скайнет

 

Для начала можно заключить искусственный интеллект внутри «виртуальной машины». Пусть он работает в пределах обычной операционной системы – ограничение доступа ИИ к софту и оборудованию главного компьютера сделает его значительно безобидней. Во всяком случае, умный ИИ не сможет рассылать своим сторонникам-людям тайные сообщения, отбивая охлаждающими вентиляторами азбуку Морзе.

 

Посадить искусственный интеллект в компьютер без выхода в интернет – хороший способ помешать коварным планам ИИ по защите Земли от нас с вами. В случае любого другого сбоя исследователи всегда могут притормозить мыслительный процесс ИИ, сбавив скорость обработки данных компьютера, регулярно нажимая кнопку «сброс» или отключив ИИ от источника энергоснабжения.

 

Такие меры безопасности предназначены для борьбы с особо умными и опасными компьютерными вирусами, но насколько эффективными они окажутся на самом деле – приходится только гадать.

 

«Уловка-22» (роман амер. писателя Дж. Хеллера; прим. mixednews) заключается в том, что мы не можем провести полномасштабные испытания наших идей, пока разработка ИИ не закончена. Но для того, чтобы сделать ИИ безопасным, необходимо разработать комплекс соответствующих мер, – считает Ямпольский. – Оптимальный вариант – ввести ограничения на использование систем ИИ а затем, по мере необходимости, менять эти ограничения в соответствии с повышающимися возможностями ИИ».

 

Никогда не приставляйте к машине охранника-человека

 

Во время невинной, на первый взгляд, беседы с охранником ничто не помешает ИИ использовать такие психологические приёмы, как дружба или шантаж. Человека можно подкупить, посулив ему идеальное здоровье, бессмертие, или даже пообещать вернуть с того света родных и друзей. Или добиться чего угодно угрозами.

 

Самый безопасный способ общения с ИИ – заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, – объясняет Ямпольский. Это поможет держать супер-умного оракула на коротком поводке.

 

Многие исследователи считают, что, несмотря на все меры предосторожности, держать умника ИИ под замком бесконечно не удастся. Последний эксперимент Элиэзера Юдковского, научного сотрудника Института сингулярности по созданию Искусственного Интеллекта, показал, что даже интеллект человеческого уровня может обмануть человека и «сбежать» из заточения.

 

Тем не менее, Ямпольский настаивает на содержании ИИ в строгой изоляции – это всё же лучше, чем махнуть рукой и предоставить ему полную свободу. Но если развитие ИИ достигнет точки, когда он сможет манипулировать человеком, используя подсознание (предсказание будущего), телепатию или телекинез – последствия будут непредсказуемы.

 

«Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» – предостерегает Ямпольский.

 

mixednews.ru/archives/15431

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Создать искусственный интеллект принципиально нельзя и точка).
Даже оперируя чисто логическими построениями легко доказать обратное.

Например, что такое искуственные цветы? Это ненастоящие цветы, но несколько похожие на настоящие. Иммитация

Что тогда искуственный интеллект? Ненастоящий, но похожий. Иммитация.

В чем принципиальная невозможность создать иммитацию?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Потому что это будет что угодно, хоть самая навороченная имитация, но это не будет интеллектом. Имхо суть интеллекта в:

- постоянном накоплении информации из окружающего мира, причем мозг воспринимает и запоминает абсолютно все, что находится в пределах органов чувств человека, чтобы потом часть отсеять, а часть внести в ячейки памяти;

- способности оперативно, в течение миллисекунд находить необходимую в данных ячейках информацию применительно абсолютно к любой ситуации, отождествлять ее с данной ситуацией, сопоставлять, отбрасывать лишнее;

- выбирать самое оптимальное решение из множества возможных в полном соответствии с собственной точкой зрения на данную ситуацию;

- и наконец использовать опыт успешной реализации принятого решения, что опять откладывается в специальных ячейках;

- самое сложное, что пока непонято - передавать накопленные сокровенные знания, профессиональные интересы на генном уровне потомкам.

 

Машина же только выполняет программу, в нее заложенную и не способна даже самостоятельно накапливать эту информацию. Выполнение простой функции, скажем поимки комара, машине понадобится просто титаническая работа всех электронных компонентов и огромное количество времени. Человек убивает комара через секунду после зрительного, либо тактильного, либо слухового контакта с ним.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Десептиконы уже на околоземной орбите ждут команды Поднимайте Оптимуса! :ph34r:

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Десептиконы уже на околоземной орбите ждут команды Поднимайте Оптимуса! :ph34r:

Это, сынок, фантастика! (С) :D Десептиконы в принципе невозможны. У машин не может быть эмоций :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Потому что это будет что угодно, хоть самая навороченная имитация, но это не будет интеллектом. Имхо суть интеллекта в:

- постоянном накоплении информации из окружающего мира, причем мозг воспринимает и запоминает абсолютно все, что находится в пределах органов чувств человека, чтобы потом часть отсеять, а часть внести в ячейки памяти;

- способности оперативно, в течение миллисекунд находить необходимую в данных ячейках информацию применительно абсолютно к любой ситуации, отождествлять ее с данной ситуацией, сопоставлять, отбрасывать лишнее;

- выбирать самое оптимальное решение из множества возможных в полном соответствии с собственной точкой зрения на данную ситуацию;

- и наконец использовать опыт успешной реализации принятого решения, что опять откладывается в специальных ячейках;

- самое сложное, что пока непонято - передавать накопленные сокровенные знания, профессиональные интересы на генном уровне потомкам.

Настоящим интеллектом искусственный интеллект и не обязан быть. Об том и была речь. Если модель объекта тождественна объекту, это уже не модель, а сам объект. И интеллект полностью совпадающий с реальным человеческим уже не есть искусственный.

Причем ваша характеристика интеллекта слишком идеализирована. Человеческий интеллект может совершенно не соответствовать вашим требованиям, но тем не менее оставаться интеллектом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Тогда что такое вообще интеллект? Ведь это не совсем объект, его нельзя выделить как объект. Чтобы хотя бы получить приблизительную копию, надо сначала понять, а что же такое есть оригинал, а этого до сих пор никто не знает. Можно усложнить компьютер, нарастить его мощность, заставить считать в трехмерном режиме, в четырехмерном, но принять простое решение по нестандартной ситуации он не сможет. Например, решить задачу А и Б сидели на трубе. Потому что для машины "и" - это просто логическая функция, машина не поймет закавыку. Она скажет - ничего не осталось на трубе, то есть выберет самое простое решение, в полном соответствии с бритвой Оккама. Но человек тем и будет отличаться от машины, что выберет нестандартное решение, потому что у человека еще есть образное мышление, пространственное воображение и запас юмора. Нетушки, никакой интеллект нельзя заставить "вести себя".

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Как Ливадного почитал. :))) Интересные вы собеседники!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Компьютеры уничтожат человечество?

 

Писатели-фантасты нередко описывают будущее, в котором машины будут противостоять человеку. Эксперты до последнего времени отрицали такую возможность. Однако недавно Центр по изучению экзистенциальных рисков Кембриджа провел исследования, доказавшие, что современные технологии способны уничтожить нашу цивилизацию уже в ближайшее время.

 

В задачу группы ученых входило проанализировать опасность, которую представляют для человечества различные факторы, такие как био- и нанотехнологии, искусственный интеллект, гонки ядерных вооружений, наконец, климатические изменения и экологические катаклизмы. В итоге один из авторов системы Skype Яаан Таллин и философ Хью Прайс пришли к выводу, что главной угрозой для нас является увеличение компьютерных мощностей. Рано или поздно, утверждают ученые, этот процесс приведет к созданию единого машинного разума, который будет способен самостоятельно писать программы, а также производить себе подобные машины без вмешательства человека.

 

"В течение этого века разум покинет пределы биологической природы, — считает Хью Прайс. — Интеллект обретут и электронные системы, мы станем не единственным разумным видом на Земле. Мы должны серьезно подходить к вероятности, что изобретение искусственного интеллекта может стать новым ящиком Пандоры. При неправильном обращении с ним последствия могут оказаться катастрофическими".

 

Прайс опасается того, что однажды компьютеры начнут распределять ресурсы в соответствии с собственными рациональными представлениями, и это может быть в ущерб человеческим потребностям. Допустим, машины станут выбирать за нас профессию, место работы или учебы, исходя из того, где и какие специалисты больше востребованы. При этом не будет иметь значения, чего хочет сам человек. Компьютерные системы смогут и контролировать наше место жительства, человек не сумеет, к примеру, переехать в другой город или страну, потому что, с точки зрения машины, он нужен именно здесь… Напротив, его могут вынудить к переезду или переходу на другую работу, если таково будет решение кибернетического разума…

 

Но людей и вовсе могут решить работы, жилья и даже пищи, если централизованный интеллект сочтет, что предоставлять им все это нецелесообразно. Роботы нового поколения будут сложными, высокоорганизованными существами, предназначенными вовсе не для службы человечеству, а для "обслуживания" материнского искусственного интеллекта.

 

Со временем цивилизация машин станет во многом превосходить человеческую расу. Ведь мы никогда не сможем быстро анализировать или подсчитывать колоссальное количество информации, при этом мы слишком уязвимы, подвержены болезням, можем быть рассеянны, невнимательны, эмоционально нестабильны…

 

"Возможно, человечеству придется сражаться за ресурсы с доминирующим видом, — полагает Прайс, — Возьмем, к примеру, горилл. Они вымирают не потому, что люди враждебны к ним, просто мы изменяем окружающую их среду в соответствии с нашими желаниями".

 

Конечно, не исключено, что прогноз слишком уж пессимистичен. Окончательный вердикт предстоит вынести специалистам в различных областях — науке, информатике, политике, юриспруденции, к которым планируют обратиться эксперты из Кембриджа. Их мнения помогут составить более точную картину будущего.

 

Но, как говорится, кто предупрежден, тот вооружен. Зная о возможных катастрофических последствиях развития технологий, мы можем попытаться их предотвратить. Как? Вероятно, разработав систему тотального контроля над машинным интеллектом. Допустим, чтобы можно было разом вырубить все! Либо встроив в него программный принцип управления — чтобы без человека машины не могли совершать никаких глобальных операций, тем более, воспроизводить себя… Еще можно ограничить доступ к материальным ресурсам, и тогда компьютеры просто не смогут создавать "дочерних" роботов, потому что у них не будет сырья… Так или иначе, проблему решить можно. Если только мы отнесемся к ней достаточно серьезно и не будем считать возможное господство компьютеров над людьми очередной выдумкой футурологов-антиутопистов…

 

Маргарита Троицына, yoki.ru

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

2018 год: компьютеры смогут рассуждать, чувствовать, творить

 

Эксперты из IBM представили прогноз о ближайшем будущем компьютерных технологий.

- Тактильные и инфракрасные технологии значительно расширят функции сенсорного экрана, - заявил главный технолог IBM Бернард Мейерсон. - Вообще, смартфоны смогут симулировать осязание... Сегодня мы входим в эру познавательных вычислительных систем — машин, которые помогают нам думать. Среди наиболее интригующих моментов сего технологического движения вперед – тот факт, что у компьютеров появятся некоторые человеческие способности, за которые отвечает правое полушарие. Конечно, речь не идет о копировании человеческого мозга… Но мы подарим им способность рассуждать, чувствовать, творить. Добавим моральные принципы.

Другой «лагерь» специалистов переживает по поводу потенциально опасных сценариев, связанных с новыми способностями компьютеров. Эксперты доказывают: искусственный интеллект развивается такими быстрыми темпами, что скоро - к концу нынешнего века уж точно - начнет угрожать существованию человечества. Роботы и люди на одной планете мирно жить не станут. Искусственный разум либо поработит гомо сапиенс, либо уничтожит. Оценить реальный риск такого жуткого развития событий взялись в Кембриджском университете. Здесь открылся Центр по изучению глобальных рисков (Centre for the Study of Existential Risk - CSER), который за глаза уже окрестили "Терминатор-центром".

В чем ученые не сомневаются, так это в том, что искусственный интеллект не менее опасен, чем ящик Пандоры. Да, сегодня машины помогают людям справиться со сложными, но рутинными задачами на заводах, в больницах, научных лабораториях. Но в будущем они будут занимать все больше и больше места в нашей жизни. Пока не вытеснят.

- Вычислительные мощности электронных систем так быстро растут, что в итоге они могут самостоятельно обзавестись сверхинтеллектом, - рисует сценарий грядущего апокалипсиса другой член CSER, один из основателей всемирно известной интернет-компании Skype Ян Таллинн. - Настоящий кошмар начнется, когда искусственный разум научится сам себя программировать и производить все более умные механизмы уже без участия человека. Компьютеры возьмут в свои железные руки те сферы, которые определяют скорость и направление технологического прогресса. И даже могут начать распределять ресурсы в соответствии с собственными нуждами, в ущерб человеческим желаниям.

- Возьмем, к примеру, горилл, - предлагает сравнение профессор Прайс. - Они вымирают не потому, что люди враждебны к ним, а потому, что мы изменяем окружающую их среду в соответствии с нашими желаниями. И, чтобы не разделить участь животных, нам уже сейчас надо придумать, чем мы можем быть полезны машинам.

Если не придумаем, то станем ненужным балластом. А что ожидать от роботов, не знающих усталости и абсолютно равнодушных к нам и нашим ценностям?

 

Светлана КУЗИНА

http://kompravda.eu

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Возможен ли электронный мозг?

 

Среди футурологов и примкнувших к ним учёных большой популярностью пользуется гипотеза технологической сингулярности. Если не вдаваться в подробности, то самое главное, что нам обещают её приспешники (и Рэймонд Курцвейл среди первых), — это скорое воссоздание человеческого мозга «в железе», появление самовоспроизводящихся компьютеров и, как следствие, необычайное ускорение научно-технического прогресса. Прежние историко-социологические представления о человеке отомрут, а сам человек, скорее всего, превратится в киборга с электронным мозгом.

 

Идея известная и имеющая множество воплощений, от «Терминатора» до блистательной «Формулы Лимфатера» Лема (и это лишь одно из его произведений, где такая возможность обсуждается). Правда, стоит заметить, что самые активные адепты технологической сингулярности (например, тот же г-н Курцвейл) более оптимистичны в своих прогнозах, нежели Станислав Лем и авторы «Терминатора». Однако сама по себе теория, похоже, более популярна среди тех, кто занимается машинами, нежели у «мозговедов». Так, на проходящем сейчас в Бостоне ежегодном собрании Американской ассоциации содействия развитию науки Мигель Николелис из Университета Дьюка (США) выразил серьёзные сомнения в том, что электронные устройства смогут в ближайшем будущем сымитировать мозг. Уважаемый учёный не стеснялся в выражениях, намекая на высокую окупаемость идеи электронного мозга. (Напомним, что, по прогнозам сингулярщиков, компьютеромозг будет создан в следующем году.)

 

Просто отмахнуться от возражений вряд ли получится: Мигель Николелис — один из крупнейших специалистов в области налаживания контактов между электронными устройствами и мозгом. Иными словами, всевозможные искусственные руки, которые слушаются нейронных импульсов, своим существованием обязаны результатам работы лаборатории г-на Николелиса. Одна из последних статей его группы, опубликованная в Nature Communications, посвящена устройству, с помощью которого крыса смогла видеть инфракрасное излучение. Сам по себе глаз крысы в таком диапазоне не видит (как, впрочем, и глаз человека), однако ученые сумели наладить передачу в мозг сигналов с инфракрасного датчика. В итоге животное реагировало на ИК-сигналы и получало положенную награду.

 

Исследователи не исключают, что в будущем человека получится научить видеть рентгеновское излучение. Это не говоря уже о виртуальных мирах, которые можно будет исследовать с помощью собственного аватара (привет «Аватару» Джеймса Кэмерона). И, кстати, подобные эксперименты уже проводились: в той же лаборатории Николелиса обезьяну научили управлять собственным виртуальным двойником, а посредником опять-таки выступили электроды, вживлённые в мозг. Однако, по мнению нейрофизиологов, барьер между электронным устройством и нервным комплексом в ближайшем будущем преодолеть нельзя. Мы сможем посылать сигналы прямо в мозг, сможем расширить воспринимающие способности мозга, сможем усовершенствовать электронно-нейронные интерфейсы, но воспроизвести нейронное в электронном вряд ли удастся.

 

Причина неоправданного оптимизма электронщиков, по мнению Мигеля Николелиса, заключается в том, что они представляют себе сложность мозга просто как комбинацию миллиардов клеток и триллионов соединений: ну да, многовато, но разобраться можно. Между тем нейрофизиологи (по-видимому, не только г-н Николелис) полагают, что это лишь внешняя, видимая часть сложности. По их мнению, сознание (и, если угодно, душа) обусловлено непредсказуемыми, нелинейными взаимодействиями между нейронами, которые вряд ли можно воплотить в кремнии. Исследователи, подчеркнём, стоят на вполне материалистических позициях, сознание для них заключено в клетках и их комбинациях, но эти комбинации до сих пор не вполне понятны, а даже если и понятны, то непредсказуемы. Учёные сравнивают это с котировками на фондовой бирже: вы, конечно, можете примерно предсказать, будут они падать или подниматься, но речь в любом случае лишь о вероятности и уж точно не о конкретных цифрах.

 

Разумеется, предсказывать будущее, особенно в смысле научно-технического прогресса, дело неблагодарное. Достаточно вспомнить фразу Билла Гейтса о том, что со спамом будет покончено к 2006 году. Однако, вспоминая о том, как не оправдались прогнозы противников телефонов, компьютеров, сенсорных экранов и т. п., следует также не забывать и о научно-технических и социальных прогнозах другого сорта, которые часто стыдливо замалчиваются, — о всяких колониях на Марсе, о вылеченном раке (о коммунизме к 1980 году). Прогнозы сторонников технологической сингулярности касаются лишь вероятного развития событий, и нужно учитывать, что существуют противоположные мнения не менее уважаемых специалистов. В общем, если в следующем году электронный человекомозг всё-таки не появится, не говорите, что вас не предупреждали.

 

Подготовлено по материалам Technology Review

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты