Восстановить пароль

Email:
Уважаемый единомышленник, если вы поддерживаете цели и ценности Стратегического общественного движения «Россия 2045», регистрируйтесь на нашем портале.

Быстрая регистрация:

Если вы зарегистрированы на одном из этих сайтов, вы можете пройти быструю регистрацию. Для этого выберите сайт и следуйте инструкциям.

Регистрация

Имя:
Фамилия:
Сфера деятельности:
Email:
Пароль:
Введите код с картинки:

Стратегическое общественное движение

Модель мышления в Новой Парадигме Искусственного Интеллекта

1 2 3 4 5 6 7 8
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

Новая парадигма искусственного интеллекта (постановка задачи)

А.В. Елашкина, А.С.Неверов, А.В. Нечипоренко, П.Н. Смертин
Тезисы на XII Всероссийскую научно-техническую конференцию Нейроинформатика - 2011. Москва, МИФИ
Обсуждается задача создания искусственной среды, моделирующей когнитивные процессы. Описываются прин-ципиальные затруднения моделирования алгоритмами (а также любой комбинацией алгоритмов и при внесении случайности любого типа) когнитивных процессов, которые реализует естественный интеллект (ЕИ) при решении задач: понимания текстов, индуктивного вывода, получения эффектов рефлексивности и самоорганизация систе-мы. Формулируются технические требования к моделированию среды адекватной когнитивным процессам (ЕИ).
Ключевые слова: новая парадигма, модель мышления, самоорганизация, рефлексия, активность, искусственная интеллектуальная среда.
Введение
Идея новой парадигмы искусственного интеллекта (НПИИ) состоит в создании искусственной (физической) среды со свойствами, обеспечивающими специфические системные эффекты. В этой среде за счет дополнения ал-горитмических методов моделирования искусственного интеллекта (ИИ) другими методами, созданными в новой парадигме, предполагается обеспечить решение когнитивных задач, таких как: индуктивный вывод, понимание текстов на естественном языке (ЕЯ), самоорганизация и рефлексия системы. К существенным особенностям этой среды относятся, например, следующие:
1) Отдельные части среды (на некотором уровне масштабирования) относятся друг другу с нарушением ка-тегории часть\целое. То есть, объект А и объект В, сохраняя само-тождественность, находятся в отношении: А принадлежит В и одновременно В принадлежит А. В пределе: часть принадлежит целому, а целое содержится в части.
2) Система взаимодействующих объектов А и В больше, чем их сумма, то есть свойства объекта (АВ) не явля-ются суммой или только объединением свойств объектов А и В.
3) Система взаимодействующих объектов представляет собой взаимодействие потоков, которое нельзя раз-ложить по состояниям, отображаемым на машине Тьюринга (МТ). В МТ состояния - S и переходы между со-стояниями – A, являются теми частями, которые образуют целое функционирования машины. В новой парадигме нарушение категории части/целое распространяется и на моделирование процессов: состояние включает в себя переход, а переход включает состояние (S входит в A, а A входит в S).
4) Система в целом и в отдельных ее элементах может одновременно находиться в состояниях полностью противоположных, т.о. нарушается формально-логический принцип запрета противоречия. Например, реализуют-ся одновременно противоположно направленные процессы и/или противоположные состояния, так что противо-положности не разнесены ни по месту в системе, ни по времени «жизни» системы.
5) Имеется постоянный циклический процесс (своего рода «ритмическая пульсация» системы), задающий структуру и движение когнитивных актов. Мы полагаем, что мышление человека идет в определенном ритме и нарушение этого ритма уничтожает саму мысль. В когнитивных процессах этот ритм может выглядеть как посто-янная смена фона и объекта. Одна мысль для другой (объекта) выступает фоном, потом та мысль, что была объек-том, отступает в фон. Здесь является важным то, что процесс идет не по кадрам, а в один и тот же момент присут-ствуют оба момента – и прошлый и будущий, и объект и фон.
В современных компьютерах категория часть\целое полностью определяет все процессы, поэтому в компьюте-рах целое всегда равно сумме своих частей и системные эффекты при работе с информацией в компьютерах отсут-ствуют. Все попытки моделирования когнитивных процессов при этом являются а) реализацией в материальной среде операций булевой алгебры б) опираются на тезис Черча-Тьюринга о том, что любую интуитивно понятную задачу можно алгоритмизировать [17, 21]. При этом когнитивные акты (с соответствующими системными эффек-тами) происходят в мышлении программистов, и в машину заносятся уже в преобразованном виде, в виде следов работы ЕИ: постановленных задач, алгоритмов решения, критериев эффективности решения, параметров, вноси-мых в систему извне, интерпретации результатов и т.п. В целом эту парадигму можно назвать алгоритмической [6, 13]. Механизм ЕИ (обеспечивающий понимание текстов, распознавание образов, индуктивный вывод, рефлек-сию и т.п.) включает в себя единство противоположностей и нарушение категории части\целое. Попытка модели-рования указанных свойств с помощью частично рекурсивных функций [Godel] сталкивается с достаточно серьез-ными затруднениями. В настоящее время предпринимаются попытки рассматривать и учитывать системные эффек-ты, например, в такой области знания, как синергетика [9]. Следует отметить, что теоретические результаты в синер-гетике получают, как правило, путем численного расчета математических моделей, подменяя расчетными моделями реальные процессы. На этом пути нельзя выйти за рамки алгоритмических методов. Не преодолевает алгоритмиче-скую природу цифровых компьютеров и симуляция на них многозначных логик. Вместе с тем в последнее время в качестве объективной реализации и экспликации многозначных логик рассматриваются квантовые компьютеры. Эффекты квантовой неопределенности микрообъектов на сегодня выступают одним из образцов нарушения зако-нов формальной логики. Соотношение должно быть следующим: квантовые эффекты не должны сводиться к фор-мальным многозначным логикам, физические (в т.ч.) квантовые процессы и механизмы могут рассматриваться как модели когнитивных актов, из которых выводятся, точнее, которыми продуцируются в качестве результатов и сле-дов формулы формальных логик. Мы полагаем, что возможен принципиально иной подход, отличный и от алго-ритмического, и от математических моделей синергетики и выводящий к новой парадигме.
Создание булевой алгебры привело к выработке математического понятия пространства булевых функций. Цифровые компьютеры - это искусственная материальная среда, реализующая пространство булевых функций, с помощью которых пользователи компьютеров, в конечном счете, моделируют некоторые свойства мышления. Ре-альное же мышление реализует не булево пространство, а множество когнитивных актов. Решение проблемы должно состоять не в том, чтобы конструировать модель мышления из математики, булевой алгебры и логических исчислений, а в том, чтобы конструировать математику, логические исчисления и прочие знания из тех элементов, которые реализуют мозг, т.е. из когнитивных актов. Нужно создать пространство когнитивных актов, которое можно реализовать в виде искусственной материальной среды (нейрокомпьютер) и которое будет не кодировать, а формировать, подобно живому мозгу. Пройденный путь с созданием булевого пространства необходимо повторить на качественно ином уровне [2]. Мы полагаем, что создание материальной искусственной среды подобной указан-ной выше, должно обеспечить большее соответствие ЕИ, нежели попытки моделирования интеллекта на цифровых системах.
Реализация указанной среды может осуществляться за счет:
моделирования из элементов (физических и/или химических объектов) на “лабораторном столе”;
соединения физического моделирования с компьютерным моделированием;
создание нейрочипа, совместимого с компьютером.
1. Ограничения алгоритмических методов
1.1. Машинное понимание текстов.
Распознавание смысла текстов на естественном языке - одна из актуальных задач ИИ. До сих пор анализатора текстов, настолько хорошего, чтобы он занял место на рабочих столах массы пользователей, нет. Опишем кратко нашу гипотезу о причинах такого положения дел.
Создателям анализатора текста приходится вводить в программу множество шаблонов, задающих “онтологию” предметной области. Алгоритмы (в том числе, итерационные) осуществляют поиск в тексте соответствия тому или иному шаблону [4,5]. Проблемой является построение качественно нового шаблона. Человек же, имея некоторые знания о предмете, при чтении текста способен построить совершенно новый набор аспектов понимания предмет-ной области – получить знание, которого у него заранее не было и которое не сводится к комбинации фрагментов, признаков ранее имевшихся знаний.
Понимание текста человеком представляется парадоксальным. Действительно, гипотеза о смысле всего текста (конечно, опирающаяся на наличные знания) появляется уже при знакомстве с первым фрагментом текста (А). Следующий фрагмент (В) понимается на основе гипотезы (А). Но, т.к. целью является не восстановление смысла отдельных фрагментов, а целостный смысл всего текста, то фрагмент (А) должен получить новое определение на фоне (В). Но и фрагмент (В) после нового понимания тоже должен будет измениться. Т. о. возникает парадокс определения по кругу. У ЕИ при понимании текста определяемое становится определяющим, что и позволяет со-брать целостный смысл без бесконечных итераций.
Такое же положение дел обнаруживается не только на уровне семантики, но и внутри грамматического анализа, а также и на связи семантики с грамматикой. Для того, чтобы выделить словосочетание (например, подлежащее и сказуемое) надо знать, в какой форме стоит слово (например, в каком падеже), но, так как при одном и том же на-писании слово часто имеет несколько падежей, для определения его падежа надо знать в какое словосочетание оно входит; и вообще – структура предложения определяется словоформами и, наоборот, словоформы часто опреде-ляются только из уже известной структуры предложения. Налицо логический круг: словосочетание определяет падеж слова, а падеж определяет словосочетание. Сталкиваясь с ситуацией круга внутри грамматического анали-за, разработчик обычно начинает привлекать семантический уровень обработки текста. Но при этом попадает в новый круг: грамматика определяет семантику, но и сама нуждается в семантике для полноценного грамматиче-ского анализа предложений текста.
Попытки рекурсивного и итерационного разрешения указанных кругов приводит к расходимости вычислитель-ных процессов. Выделенные логическое парадоксы понимания текстов говорят о том, что и язык и когнитивные процессы устроены принципиально иначе, чем это представляется при алгоритмическом описании.
1.2. Определение (познание) неизвестного объекта
Вопрос об определении неизвестного объекта является одной из самых фундаментальных проблем ИИ, имею-щей отношение к таким задачам, как распознавание образов, индуктивный вывод, автоматическое понимание тек-стов, обеспечение рефлексии и самоорганизации в системе [12, 18, 19, 22, 23]. В общей постановке вопрос можно сформулировать так: в потоке неформализованных, меняющихся данных необходимо выделить объекты (хотя бы один), отличить объект от фона, от всего иного.
В основании прежней парадигмы, опирающейся на формальную логику и алгоритмический подход, лежит не-критически принятое допущение: познание всегда имеет дело с готовыми отдельными объектами с определенными признаками. Когнитивные процессы моделируются, во-первых, детектированием признаков и, во-вторых, после-дующей обработкой полученных данных. Эта обработка заключается в сопоставлении данных от детекторов – кла-стеризации, классификации, типизации [11], на этой основе отнесение данного единичного объекта к общему клас-су или типу, а также идентификация объекта как единичного представителя класса или типа. В-третьих, классы или типы должны строиться самой системой ИИ за счет процедур обобщения – кластеризации, индуктивного вы-вода, и пр..
В попытках выйти за рамки текущей парадигмы некоторые исследователи предполагают, что динамическая система, возникающая при взаимодействии параллельных вычислительных процессов, может эмерджентно перей-ти в новое качество и образовать новый объект или новые признаки классификации. Принципиальным вопросом при этом является сохранение единства и целостности моделируемого когнитивного процесса: как возникающее новообразование позволяет продвинуться в решении определенной задачи. Для задачи важны не любые “скачки мысли”, не любые “ассоциативные связи”, а обнаружение новых существенных отношений в том предмете, кото-рый был положен с самого начала – в предмете задачи.
Построение эффективных алгоритмов указанных когнитивных процессов до сих пор является проблематичным. Эффект достигается либо сужением задачи и “настройкой” системы на определенный ограниченный вид данных, либо расширением системы ИИ за счет постоянного участия человека (в ролях постановщика задачи, эксперта, алгоритмиста), который “извне” привносит шаблоны классификации или типизации.
С логической точки зрения проблема определения неизвестного объекта состоит в парадоксе, с которым, на-пример, столкнулся позитивизм: всякая эмпирическая процедура «нагружена» теоретически» [1]. Иными словами, для эмпирического выделения общих существенных признаков, необходимо иметь множество исследуемых объек-тов, но очерчивание границы множества возможно, в свою очередь, только при знании существенных признаков объектов. Эта же проблема проявляется и в простой детекции: из фона поступающих данных нельзя выделить те, что относятся к определенному объекту, если нет соотвествующей обобщенной маски объекта, но для автоматиче-ского построения подобных масок система ИИ сама должна вырезать нужные данные из фона – потока всех дан-ных.
Указанное опущение, что объекты заданы заранее, что они обособлены и имеют набор признаков приводит к парадоксу. В случае, когда интеллектуальная система имеет дело с потоком быстро меняющихся и плохо формали-зованных данных нельзя говорить о готовых, отдельных объектах, определенных заранее заданными параметрами. Объект когнитивных операций (восприятия, понимания, мышления) определен только если имеет свои границы, отделен от других объектов. При этом нельзя первым тактом «увидеть» объект, вторым – фон, а третьим их соеди-нить, поскольку без второго и третьего действия первое невозможно. Обе противоположности должны присутст-вовать в едином когнитивном акте. Иной механизм уводит нас в дурную бесконечность, либо требует, чтобы это соединение проделал кто-то заранее, и значит, не предполагает порождения знания внутри самой системы [20].
Еще одна предпосылка заключается в том, что при формально логическом понимании когнитивных процессов процедура выделения свойств объекта и процедура подведения конкретного объекта под общий образец (шаблон) выступают как отдельные процедуры. Парадокс разрешим только если принять, что ЕИ в одном акте мысли соеди-няет оба «действия»: индукцию – абстрагирование, обобщение, и дедукцию – подведение под образец. Чтобы че-ловек сказал – «это яблоко» – он должен одновременно, а не последовательно, удерживать в мысли и это яблоко и все, потенциально бесконечное, множество – «класс яблок».
Можно показать, что вопросы рефлексивности и самоорганизации системы ИИ также тесно связаны с рассмот-ренной проблемой. Для разрешения логических парадоксов, встающих при рассмотрении этих вопросов, мы вы-нуждены допускать одновременные, в одном когнитивном акте, объединение и различение объекта и его фона [3].
1.3. Границы применимости алгоритмического подхода
Неэффективность решения рассмотренных выше задач алгоритмическими методами проявляется, прежде все-го, в том, что при попытке моделирования когнитивных процессов возникают многочисленные логические круги, разрешение которых рекурсией (итерациями) приводит к экспоненциальному росту объемов вычислений. Отме-тим, что если при алгоритмическом моделировании физических процессов критерием схождения итерационного ряда является количественная близость к пределу, сопоставимая с погрешностью измерений, то в области когни-тивных процессов требуется близость качественная. Так, при понимании текстов отклонение даже в одном из множества параметров текста может привести к качественному смысловому расхождению, а при обобщении не-верно отнесенный к объекту один из множества признак – к неадекватному понятию. Рекурсия отличается от од-ноактной рефлексии. Поводы для сомнений в справедливости упомянутого тезиса Черча-Тьюринга содержатся уже в двух теоремах Геделя о принципиальных ограничениях самоописания формальной системы. [8, 15, 22]. Анализ оснований доказательства теорем Геделя позволяет предположить, что ограниченность алгоритмического способа, с которой сталкивается практика компьютерного ИИ, возникает в тех случаях, когда необходима рефлексия (само-организация) системы и именно потому, что рефлексия подменяется рекурсией.
2. Специфика работы живой нейронной сети
Чтобы акцентировать значимость приведенных выше логических рассуждений и для физической реализации среды с особыми свойствами, укажем на особенности работы живой нервной системы, которых нет у искусствен-ных нейросетей, составленных из «формальных нейронов». Ограничимся в данной статье лишь одним замечанием, имея ввиду, что осмысление результатов исследований живого мозга с точки зрения новой парадигмы ИИ – это предмет отдельного рассмотрения.
Модели «формальных нейронов» игнорируют присущие живой клетке собственные реакции на раздражение, каким, несомненно, является вызванный постсинапсический потенциал. Искусственные нейросети пассивны – ос-нованы на примате «сеносоров» над «эффекторами». Однако функционирование реальной нервной ткани является сложным единством противоположностей: активности и пассивности [7, 10, 14, 16, 18]. ЦНС в целом функциони-рует как единство противоположных процессов: рефлекторных процессов, реакций на раздражители, и активных, «контр-рефлекторных» процессов.
Если примитивную систему из двух нейронов «аффекторный -> эффекторный» можно рассматривать как де-терминированное взаимодействие, реализующее безусловный рефлекс, то встраивание интернейрона создает но-вое системное качество. Теперь схема выглядит так: «аффекторный нейрон  интернейрон эффекторный ней-рон». Вставка третьего нейрона (и больше) трансформирует жесткую связь стимула и реакции в гибкую связь, варьируя раздражители, т.е. "подбирая" к той же реакции – другие раздражители. При значительном увеличении числа интернейронов становится возможным "опрокидывание" связи реакции с раздражением и превращения ее в противоположную связь "сенсоров" - с "эффекторами", о чем можно говорить как об ином качестве. Система «сен-соры»  «эффекторы» эффективна как часть рефлекса. Сама же по себе, в виде пассивной нейросети, малоэффек-тивна – для неё любые воздействия равнозначны случайным, хаотическим. Превосходство активной центральной нервной системы – во взаимодействии системы «эффекторы»  «сенсоры», добывающей информацию среды, с системой «сенсоры»  «эффекторы», анализирующей информацию. Развитие и усложнение взаимодействия этих систем имеет потенциал к выработке информации самостоятельно, то есть, выработке качественно новой инфор-мации, не сводимой к набору или комбинации данных, полученных извне или от самого организма.
Мы полагаем, что существующие результаты исследования мозга и ЦНС в целом следует рассмотреть под ра-курсом когнитивных актов с указанными свойствами: единство определяющего и определяемого, активного и пас-сивного, актора и объекта, части целого.
3. От логики алгоритмов к логике когнитивных актов
В работе машины Тьюринга (МТ), которой эквивалентен любой алгоритм, четко разделены состояния ячеек ленты (операнды) и процедуры (операции), считывание информации («сенсоры») и запись информации («эффек-торы»). В этом проявляется фундаментальность для МТ и алгоритмического подхода категории части\целое, со-гласно которой целое равно сумме частей и системный эффект отсутствует. При попытках алгоритмического мо-делирования когнитивных процессов возникают противоречия и логические круги, описанные выше. Противоре-чия не могут быть разрешены именно потому, что системный эффект, которого пытаются добиться алгоритмиче-скими средствами, не содержится в фундаменте этих средств. Более того: то, что противоречия в рассмотренных нами задачах выглядят для нас как логические круги, обусловлено тем, что когнитивные процессы мы описывали как «интуитивные алгоритмы» – в виде последовательно выполняемых действий. Полагая, что объекты задачи циклически определяют друг друга, мы этим самым мыслили объекты как уже отделенные друг от друга самостоя-тельные части целого. Разрешение противоречий возможно за счет изменения парадигмы нашего инженерного мышления – преодоления категории часть\целое. Должен быть сделан переход к такому когнитивному акту, в ко-тором объекты существуют одновременно и в их единстве, и в их раздельности. В новой парадигме ИИ алгоритмы цифровых компьютеров должны быть дополнены когнитивными процессами, моделируемыми материальной ак-тивной средой. В активной среде вместо тактов работы процессора с данными 1 и 0 должна реализовываться эле-ментарная когнитивная единица самоорганизации, самодействия или, иначе, элементарный когнитивный акт, за-ключающий в себе единство противоположностей: операнда и операции, восприятия и воздействия. Такая по-становка задачи, предполагает построение и нового аппарата математики – математики системного мышления, а также инженерное создание искусственных активных сред, в которых реализуется указанный элементарный ког-нитивный акт.
Заключение
Новая парадигма ИИ основана на идее выхода за рамки алгоритмов за счет дополнения цифровых компьютеров искусственной средой, моделирующие когнитивные акты и процессы. Описание этих моделей требует преодоле-ния категории части/целое и предполагает, в том числе, разработку особой системной математики. Предполагает-ся, что в новой парадигме ИИ можно будет добиться большей эффективности при решении задач ИИ (понимания текста, индуктивного вывода и др.), чем это позволяют сегодня сделать алгоритмические методы и методы мате-матического моделирования синергетики.

Литература
1. Аналитическая философия. Учебное пособие / А.Л. Блинов, В.А. Ладов, М.В. Лебедев и др.; под ред. М.В. Лебедева, А.З. Черняка. М., 2006.
2. Елашкин В. Н. Концептуальное описание модели нейронной сети. // Труды ВЦ СО РАН. Информатика, Новосибирск: 1994. С. 122-137.
3. Елашкина А.В. Некоторые критерии интеллектуальных систем // Философия науки, № 1(32). — Новосибирск, 2007.— С. 102-128.
4. Елашкина А.В., Разумов А.М., Русин А.О. Экспертная информационно-поисковая система, основанная на семантической сети. // Международная научно-техническая конференция. Материалы конференции. Т. 3. Интеллектуальные системы и техно-логии. – Новосибирск, 2000. – С. 503-508.
5. Компьютерная лингвистика и интеллектуальные технологии: Труды международной конференции «Диалог 2005» / Под ред. И.М. Кобозевой, А.С. Нариньяни, В.П. Селегея. М.: Наука. 2005.
6. Мальцев А.И. Алгоритмы и вычислимые функции. М., 1986;
7. Марр Д. Зрение. Информационный подход к изучению представления и обработки зрительных образов. М.: «Радио и связь», 1987..
8. Нагель Э., Ньюмен Д.Р. Теорема Гёделя, М., 1970.
9. Новое в синергетике. Новая реальность, новые проблемы, новое поколение (Информатика). М.: Наука, Наука-М. 2007.
10. Прибрам К., Языки мозга, М., 1975.
11. Рассел С., Норвиг П. Искусственный интеллект: современный подход (AIMA), 2-е издание.: Пер. с англ. – М. : Издательский дом “Вильямс”, 2006.
12. Сёрл Дж. Разум мозга - компьютерная программа? В мире науки. 1990. 3. С.7-13.
13. Эббинхауз Г. Д., Якобс К., Ман Ф. К., Хермес Г., Машины Тьюринга и рекурсивные функции, пер. с нем., М., 1972;
14. Ярвилехто Т. Мозг и психика. М., 1992;
15. Godel K. Collected works, Vol. 1 ed. S. Fereman et al. 1986. Oxford university Press
16. Fagerstr, Jaggers P., Schuster P., Sthasmary E. Biologists Put on Mathematical Glasses// Science, 1996, V.274, N 5295, p.2039;
17. Church A., An unsolvable problem of elementary number theory, "Amer. J. Math.", 1936, v. 58, No 2;
18. Kampis G. Self-Modifying Systems in Biology and Cognitive Science. Oxford, Pergamon, 1991;
19. Lucas J.R. Mind, Machines, and Godel //Philosophy, 1961, 36, pp. 112-127;
20. Mandler J. M. The Foundations of Mind. Origins of Conceptual Thought. Oxford university press, 2004.
21. Тuring A., "Ргос. London Math. Soc.", 1937, v. 42, 2, p. 230-65;
22. Penrose R. Shadows of the Mind: A Search for the Missing Science of Consciousness. - Oxford, New York, Melbourne: Oxford University Press, 1994.-457p;
23. Van Rootselaar, B. On Bunge's theory of things.// Int. J. of General Systems, 1977, V.3, pp.175-180

0
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

(Не)алгоритмический интеллект?
Ниже мое интервью со специалистом в области систем искусственного интеллекта (ИИ).
Собеседник - Алекс Добров, профессор одного из американских университетов.
У некоторых, особенно приверженцев классического ИИ, отдельные фрагменты интервью могут вызвать внутренний протест. Отдаю себе в этом отчет. Протестовать прошу без эмоций, по существу.
Итак, поехали.


Что изменилось? С какими доминирующими ранее идеями о построении искусственного интеллекта специалисты на сегодня расстались? А что, напротив, осталось неизменным?

Пожалуй, основная идея, с которой пришлось расстаться, это то, что интеллект, равный человеческому или даже превышающий его, будет создан в относительно скором будущем. Радужные ожидания сменились пониманием того, что создание ИИ, равного человеческому, - задача на много порядков сложнее, чем казалось раньше. После этого финансирование общих проектов по созданию ИИ резко сократилось. В настоящее время даже сам термин стараются не особенно употреблять. Вместе с тем развиваются отдельные прикладные направления, под которые есть финансирование. Главный заказчик – военные.
В том, что касается тенденций развития ИИ, я бы выделил две основные:
1. Ранее весьма популярные символьные методы работы с информацией (на основе формальных грамматик и языков) уже не в фаворе, а "аналоговые" методы развиваются всё больше. Число разработок с использованием искусственных нейросетей растёт очень быстро. Мало того, даже в работе с символьной информацией используют "аналоговые" методы (например, Google).
2. Вместо ИИ-реализации на базе огромной машины всё большее развитие получает представление о реализации ИИ в виде группы интеллектуальных агентов, которые кооперируются в плане обмена информацией и совместных согласованных действий.
Неизменным, как для меня ни странно, у многих осталось убеждение, что можно построить ИИ путем копирования мозга животного. И это несмотря на то, что ни один подобный проект не увенчался успехом, что не удивительно, поскольку нейрофизиология еще очень далека от понимания того, как работает естественный интеллект (ЕИ).


Понимаем ли мы сейчас, что такое интеллект?

Ответ на этот вопрос сильно зависит от того, что вкладывать в термин "понимаем". Уже давно определили интеллект как способность решать проблемы, а более точно - как способность учиться решать проблемы. Обе способности можно в какой-то степени смоделировать на компьютере. Этот уровень понимания более-менее подробно и толково изложен например тут: wiki (не советую взамен читать русско-язычную версию
Вместе с тем, хорошо известно, что способность учиться (решать проблемы) в общем случае неалгоритмична. Однако в настоящее время нет даже осознания-понимания целесообразности создания неалгоритмического ИИ и тесно связанной с этим проблемы построения неалгоритмической теории ЕИ, не говоря уже о понимании того, какие подходы к этому возможны. Это понимание придет через необходимость решать сложные проблемы ИИ - когда станут тесны рамки алгоритмических моделей.

От исследователя ИИ слышать утверждение о неалгоритмичности довольно непривычно. Полагаю, большинство коллег с вами не согласятся. Хотя бы потому, что опираются на тезис Черча-Тьюринга.

Тезис Чёрча тут в качестве опоры не очень подходит. Он лишь утверждает, что интуитивное понимание конструктивной процедуры точно соответствует математически строгой формализации в виде машины Тьюринга или аналогов (лямбда-исчисления и т.п). Однако, как много раз замечалось, открытия не висят на ветвях логических выводов. Другими словами, творческое мышление, творческая деятельность неалгоритмизируемы, что математически выражается в принципиальной неалгоритмизуемости обучения в общем случае. В то же время, интуитивно понятно, что нигде так не проявляется сила интеллекта, как в творческой деятельности. Алгоритмический ИИ не способен решить задачу, решение которой потенциально не заложено в его алгоритме.
С другой стороны, при разработке алгоритмического ИИ, рассчитанного на решение достаточно широкого и сложного круга проблем, необходимо закладывать весьма сложный алгоритм. Чем сложнее подобный алгоритм, тем труднее его тестировать, тем больше вероятность ошибки. Неалгоритмический ИИ принципиально допускает усложнение и совершенствование себя. Безусловно он тоже не застрахован от ошибок, но способен к творчеству, а значит к нахождению выхода из ситуаций, в которых алгоритмический не найдет выход никогда.


Обычно имеется в виду т.н. физический тезис Чёрча-Тьюринга (любая функция, которая может быть вычислена физическим устройством, может быть вычислена машиной Тьюринга). Ряд ИИ-шников, с кем довелось пообщаться, ссылаются на этот тезис, утверждая, что ни одного исключения до сих пор не обнаружено. Поэтому можно на него полагаться. Как случилось так, что вы не придерживаетесь тех же позиций? Что на вас повлияло?

Насчет "физического" ТЧТ, есть очень неплохая статья Пиччинини. Вот какой вывод он делает:
CTT does entail that if the brain follows an effective procedure, then that procedure is Turing-computable. And Modest Physical CTT does entail that if the brain performs computations, then those computations are Turing-computable. But neither CTT nor Modest Physical CTT is of any use in determining whether the brain follows effective procedures or more generally, whether it performs computations.

На мой взгляд, творческий интеллект не может быть полностью описан теорией вычислимости. Поэтому ТЧТ к нему неприменим. Более того, я считаю, что функционирование интеллекта в общем случае не может быть полностью описано в терминах обработки информации. Необходимо существенно привлекать физическое взаимодействие с окружающей средой. В этом плане известный тест Тьюринга нужно дополнить возможностью физического воздействия на тестируемую систему (т.е. помимо информационного взаимодействия типа "вопрос-ответ").
Почему ваши знакомые ИИ-специалисты отвергают идею неалгоритмичности интеллекта, не знаю. Возможно, Пэнроуз достал их своими квантовыми микротрубочками Ну а если серьезно, то степень трудности проблемы описания неалгоритмического объекта такова, что человек, не видя даже подходов к решению этой проблемы, будет склонен вообще отрицать существование подобных объектов - довольно часто встречающийся тип психологической защиты. Любопытно, как они сами объясняют свой негатив по отношению к идее неалгоритмичности.
На меня ничего не повлияло, я просто шел своим путем, пытаясь понять, как можно описать способность к самообучению, творчеству, т.е. как "устроен" ЕИ. Последовательность рассуждений, приводящая к идее неалгоритмичности интеллекта, достаточно проста. С одной стороны, математическая физика не может обойтись без аксиомы выбора (или ее эквивалента). А эта аксиома выводит за пределы алгоритмичности, поскольку позволяет доказывать существование объектов без предъявления конструктивной процедуры их построения. С другой стороны, из человеческого опыта известно, что люди способны к обучению, творчеству, созданию нового, что тоже выходит за рамки алгоритмичности. Таким образом, по отношению к предположению о существовании физической реализации неалгоритмического интеллекта не видно противоречий.


В каком виде сейчас существует «неалгоритмический ИИ» - в виде голой идеи, как просто антитезы алгоритмическому - или уже есть какие-то подходы, которые работают? Понятно хотя бы, каким путем нужно идти, от чего отталкиваться?

Насколько мне известно, официального направления типа "неалгоритмический интеллект" (НАИ) пока нет. На это нет заказа, финансирование и на обычный ИИ трудно получить, а на НАИ - только случайно, от какого-то сумасшедшего. В то же время, думаю, что из серьезных теоретиков ИИ большинство согласится, что НАИ имеет право на существование. Но практической пользы от НАИ большинство, скорее всего, не видит.
Основной вопрос, интересующий меня на данном этапе, заключается в том, насколько конструктивно можно описать НАИ. Понятно, что алгоритмически конструктивно это невозможно. Какие другие варианты/степени конструктивности возможны? В этом плане мне импонирует идея Пэнроуза о физической конструктивности. К сожалению, кроме самого термина у него практически больше ничего пока нет (насколько мне известно). Мои собственные разработки пока не опубликованы, поэтому я пока ограничусь лишь общими соображениями.

Строгое понятие алгоритма - лишь идеализация нашей деятельности. На самом деле мы вовсю пользуемся физическими процессами, которые вряд ли можно описать как алгоритмические. Хорошо известно, например, какую роль играют молекулы АТФ в жизнедеятельности клеток. В то же время, неизвестно, как именно энергия химических связей АТФ передается молекулам, которые участвуют в процессах, требующих энергию. Для наблюдения за подобной передачей требуется разрешение порядка долей пикосекунды. Наука только подошла к возможности регистрации движения сложных молекул на таком разрешении. Если вдуматься, можно увидеть, что подобных примеров множество. Более того, лишь в редких случаях мы можем похвастаться, что знаем все детали используемой процедуры и можем разбить ее на элементарные операции. Компьютерная среда в этом плане - совершенно особая: там нет места неопределенностям.

Ключевая идея создания НАИ состоит в том, что обладателю НАИ необходимо допустить возможность существенной модификации своего физического субстрата внешней средой. Такая модификация, конечно, может произойти в любом случае, например, компьютер уронят на пол, после чего он с большой вероятностью просто перестанет выполнять свои функции универсального вычислителя. Это экстремальная возможность, никак не учитываемая компьютерными программами В отличие от этого, обладатель НАИ не только должен учитывать возможность физической модификации себя, но и "надеяться" на это и по-возможности управлять степенью своей открытости подобным изменениям. Пример реальной системы - клетка, в которой при определенных обстоятельствах (стрессе со стороны окружающей среды) может многократно повышаться частота мутаций генома. Другой пример – творческий ЕИ, создающий новое. Как в сложном живом организме устроены подобные механизмы, предстоит исследовать, это одно из наиболее интересных направлений.
Будучи физически открытым окружающей среде, носитель НАИ после очередного "вмешательства" может необратимо потерять способность выполнять свои функции. Другими словами, мутант может умереть. Использование этого термина не случайно. Есть серьезные основания полагать, что понимание того, как создать НАИ, существенно приблизит нас к пониманию того, как "устроена" жизнь. Другими словами, на том же уровне конструктивности, который окажется практически ценным в плане описания НАИ, по-видимому, можно будет описывать свойство физического объекта быть живым.


По-моему, в среде ИИ преобладает другая точка зрения: чтобы аппарат тяжелее воздуха летал, ему необязательно махать крыльями. То есть физические свойства мозга имеют малое отношение к его способности порождать интеллект. Важна лишь его организация как универсального вычислителя. Насколько важно разработчику ИИ оглядываться на исследования ЕИ?

Необходимо "физическое" или нет, зависит от того, как определить понятие "интеллект".
Допустим, кто-то занимается распознаванием рукописного шрифта. Создает ли он при этом ИИ? В любом случае, при этом на практике вполне можно обойтись алгоритмическими методами. Нужно ли такому ИИ-шнику знать, как устроен ЕИ? Я в этом не уверен, скорее всего, не нужно. В общем случае, всё зависит от того, какой круг задач он решает. Во многих случаях у природы есть чему поучиться, но ИИ-шники, как правило, просто не представляют, чего они не знают о ЕИ, а поэтому как они могут видеть смысл изучения ЕИ?
С другой стороны, обычно ИИ-шник пользуется своим (неалгоритмическим) ЕИ для решения творческой задачи - разработки алгоритма работы ИИ для заданного круга задач. Поэтому ИИ-шник не видит нужды в реализации неалгоритмического интеллекта в ИИ-системе. Меня же интересует в первую очередь, как устроен ЕИ, способный самостоятельно разрабатывать алгоритмы. Возможность создавать и менять алгоритм, приспосабливая его к нуждам организма, не может быть достигнута в рамках теории вычислимости. Даже на сравнительно простой вопрос "Как описать совершенно новый круг задач для уже созданного ИИ?" нет ответа в рамках этой теории (кстати, попробуйте задать его вашим ИИ-шникам – любопытно, что они ответят



Как я уже говорил, если "физическое" отбросить и ограничиться уровнем описания в терминах вычислимости, то не удается адекватно описать процесс обучения и творчества. Мозг - живой орган, часть организма, который, в свою очередь, является частью всей физической природы. Дело в том, что без "физики" мы не можем описывать творческий интеллект. Искусственной нейронной сетью, например, может быть реализован любой алгоритм обработки информации, но не движение в пространстве алгоритмов, а без такого движения нет творчества. Но если бы только творчества в плане высокого искусства, например, это было бы еще пол-беды Но движение в пространстве алгоритмов необходимо просто для выживания хозяина интеллекта. Существующий алгоритм менять нет нужды, пока всё нормально. Но если возникает угроза существенной потери функциональности, он должен быть изменен, причем, даже если он работает правильно, но слишком медленно. В рамках алгоритмического ИИ это делается руками ИИ-шников. А если это случится на другой планете, где ИИ-шников не будет, и роботам с ИИ придется действовать самим? Кто будет за них менять их алгоритм в случае жизненной необходимости? Создание алгоритма, способного адекватно действовать в любых ситуациях - даже не фантастика, это фантазия, особенно учитывая необходимость его колоссальной сложности. А использование альтернативных, неалгоритмических подходов позволяет без этого обойтись: нет нужды создавать заранее супер-сложный алгоритм, если ИИ-система может развивать (корректировать, усложнять) алгоритм сбора и обработки информации и принятия решений в зависимости от конкретных условий окружающей среды.


Описанный подход, где принципами являются неалгоритмичность и физическое взаимодействие со средой, может ли он привести нас к более глубокому пониманию эволюционного возникновения мышления?

Сложность ответа на ваш вопрос об эволюции мышления (для меня) заключается главным образом в том, что очень непросто сказать с какого момента, с какого уровня организации физической системы начинается мышление.
Неудобство идеи алгоритмического мышления, т.е. связывания мышления с алгоритмом, заключается в существенном ограничении пространства возможностей, а также в необходимости введения дополнительных абстрактных сущностей типа "информации". Для многих мышление, наверное, непредставимо без обработки информации, без нервной системы, без мозга. Но обработки информации самой по себе явно недостаточно, чтобы процесс можно было назвать мышлением. Например, нередко говорят "он сделал это инстинктивно, не подумав". Обычно в таких случаях сделанное тем человеком в той или иной степени идет вразрез со смыслом. Таким образом, несмотря на то, что человек, с формальной точки зрения обработал какую-то информацию, использовал свой мозг, в его реакции, по большому счету, не было акта мышления.
Мышление, мысли, смысл - всё это однокоренные слова. По какому критерию можно судить о том, что данная система мыслит? Необходимо определить понятие "мышление" по отношению к жизнедеятельности организма (будь то отдельная особь, популяция или целая экосистема). Я лично вижу главное необходимое условие в том, что ее активные (т.е. с использованием внутренней энергии) реакции на воздействие/изменение окружающей среды должны иметь смысл в плане увеличения шансов выжить. Это условие прямо связано с понятием "жизнь" и определить "мышление" без опоры на "жизнь" мне не удается.
С другой стороны, когда вирус прикрепляется к клеточной мембране с последующим впрыскиванием своего генома в клетку (явно осмысленное действие!), обрабатывает ли он информацию? Идет ли обработка информации в процессе репарации ДНК? Независимо от ответа на эти вопросы, указанные действия имеют смысл в плане выживания системы их производящей.

Осмысленность действия - необходимое условие наличия мышления. Но достаточно ли оно? Я считаю, что нет. В моем представлении, достаточным условием для утверждения, что данная наблюдаемая система "мыслит", является использование ею своей внутренней модели мира для проверки того, к чему приведет то или иное действие, чтобы выбрать наиболее способствующее выживанию.
С этой точки зрения, вирус, очевидно, не мыслит, прикрепляясь к клеточной мембране, поскольку его внутренняя модель мира, если вообще есть, находится в геноме, который участие в прикреплении не принимает. О бактериях (и вообще одноклеточных) трудно однозначно сказать, мыслят они или нет: слишком мало пока известно о генетических сетях. Я интуитивно склоняюсь к тому, что некоторая форма мышления там присутствует с использованием таких сетей. Например, бактерии способны синтезировать новые хеморецепторы в ответ на изменения в окружающей среде и передавать эти рецепторы по наследству в течение нескольких поколений.
Ну а дальше - об эволюции модели мира, ее использования и развития (т.е. в сущности об эволюции интеллекта) можно писать большую книгу. Тут важно помнить, что для построения такой модели знания далеко необязательно кодировать в символьной форме. Простейшие модели вполне могут быть аналоговыми, а значит, могут быть реализованы в виде любой подходящей физической системы. Вот тут, похоже, в полной мере начинает проявляться неалгоритмичность мышления: ведь динамику физической системы в общем случае нельзя описать алгоритмом, не говоря уже о том, что множество физических систем алгоритмически неперечислимо и что неалгоритмично добавление в модель мира новых степеней свободы.


Какие аспекты деятельности мозга вас наиболее интересуют и представляются ключевыми в связи с работой над построением ИИ систем? Может, есть вещи, которые вас в мозге по-настоящему удивляют, и их хочется понять сильнее всего.

Не вдаваясь в технические подробности, могу выделить три основные задачи, которые мозг человека успешно решает и решение которых очень хотелось бы смоделировать в виде ИИ. В моем представлении "сильный" ИИ обязательно должен уметь их решать.
1. Обучение извлекать информацию из произвольного нового сенсора - источника сигнала несущего информацию об окружающей реальности, встраивать его в уже существующую сенсорную систему для более эффективного развития модели мира.
2. Обучение пользоваться произвольным новым эффектором (т.е. предметом типа инструмента, прибора, машины) для достижения своих целей.
3. Развитие второй сигнальной системы, т.е. речевого, символьного интерфейса. Сюда входит не только обучение обычному языку, но и вообще информационному обмену с другими интеллектуальными системами.
Не могу сказать, что меня в работе мозга что-то существенно удивляет, видимо уже просто привык Больше всего, наверное, хотелось бы выяснить, как реализованы неалгоритмические методы обучения.


Если, по вашему мнению, мышление привязано к процессу, который мы называем жизнью, означает ли это, что, создав полноценно мыслящий ИИ, мы получим систему, которая в том или ином смысле будет живой? Иными словами, что вы думаете о связи «жизнь-мышление»: это два самых загадочных феномена, что-то их объединяет помимо загадочности?

Из опыта хорошо известно, что живые системы устойчивы по отношению к воздействиям внешней среды. Можно показать, что в условиях нестационарности среды устойчивость достигается главным образом за счет непрерывного обучения. Для этого живая система должна иметь субъективную модель "добра и зла": всё, что способствует выживанию системы, - добро, всё, что грозит смертью, - зло. Система использует эту модель в качестве критерия оптимальности при обучении. Это необходимо, поскольку на собственной смерти не научишься. Ранее я говорил, что мышление в первую очередь состоит в использовании модели мира для выживания. Модель добра и зла - главная часть модели мира. Всё остальное (т.е. т.н. "объективные закономерности") служит для интерпретации мира в терминах добра и зла. В то же время, "объективная" часть модели не зависит от модели добра и зла. А последняя может меняться в зависимости от конструкции самой системы. Без мышления система не может пользоваться этими частями модели мира, а значит, не может устойчиво жить. Поэтому я бы сказал, что способность к (неалгоритмическому) мышлению является необходимым условием жизни. Можно ли назвать любую мыслящую систему живой? Мне хочется ответить "да", до конца мне это пока не ясно.
С другой стороны, можно ли назвать машину, действующую по фиксированному алгоритму, живой? Я предпочитаю отрицательный ответ по следующим соображениям. Интеллектуальному наблюдателю машина может долго казаться живой, если алгоритм достаточно сложен и условия внешней среды постоянны. Однако, при существенном изменении условий среды алгоритм может перестать быть адекватен, а машина будет не в состоянии изменить этот алгоритм, что наблюдатель заметит как проявление неустойчивости, отсутствие гибкости реагирования на новизну. Существенными изменениями не обязательно должны быть катаклизмы, просто какие-то физические воздействия, не учтенные алгоритмом.


Уже сейчас некоторые программы настолько сложны, что их авторы не смогут сказать, как именно достигнут тот или иной результат. Даже несмотря на то, что он получен абсолютно детерминированными вычислениями. Со временем мы будем все больше функций перекладывать на ИИ, но все меньше понимать путь получения им решения.

Я думаю, что проблема понимания человеком ИИ-системы не сложнее проблемы понимания людьми друг друга или животных. Мало кто понимает, как работает цветной телевизор, например, но все им успешно пользуются. Для более-менее глубокого понимания важно иметь языковый интерфейс с ИИ-системой. А путь решения может и не быть выразим до деталей на языке, особенно если он получен неалгоритмическим ИИ. Критичность проблемы понимания определяется конкретными обстоятельствами. Критичность возрастает, например, если необходимо как-то убедиться в правильности пути. Это похоже на доказательство теорем. Есть теоремы, известное доказательство которых настолько сложно, что трудно гарантировать отсутствие в нем ошибок. А есть и утверждения, которые по Гёделю вообще нельзя ни доказать, ни опровергнуть. Поэтому в подобных случаях приходится прибегать к универсальному критерию истины - практике. В приложении к ИИ-системам это значит, что подобную систему нужно тщательно тестировать, прежде чем вверять ей что-то серьезное. Собственно, так же поступают и с ЕИ-системами
Кстати, у меня нет сомнений, что будущие поколения, если выживут, будут жить с ИИ-роботами, которые будут всё более и более совершенными. Интересный этап начнется, когда роботы станут настолько интеллектуальными, что смогут создавать новые типы роботов. Не исключено, что в этом будет даже состоять основное направление эволюции жизни.

0
06.08.2012

NewPoisk Иванов

Зарегистрирован(а) : 15 марта 2011
Сообщений: 49

Павел, Ваши тексты не только слишком велики для форумов, они еще и отображаются некорректно (картинок нет). Будет читаться гораздо лучше если Вы оформите их в виде одной книги. Кому надо - скачают! Тем более читать научные мысли следует не с экрана (за компьютером почему-то думается плохо), а с распечатанного листа. Лучше pdf - гарантия что прочитается в большинстве систем. Сделайте оглавление, внутренние гиперссылки, букмарки, красивую обложку наконец. Неужели это так трудно? Вам лишь кажется что размещение на форумах повышает вероятность нахождения через поисковики. Оно справедливо для простых всем понятных бытовых вещей. ИИ - не из их числа. Новые идеи по ИИ ищут специалисты, да и то не все. 99% т.н. "разработчиков ИИ" не проходят даже простейший тест на профпригодность: http://gotai.net/forum/default.aspx?postid=54869#54869

P.S.
Кстати, на "новую парадигму ИИ" я уже составлял микрорецензию: http://gotai.net/forum/Default.aspx?postid=58878#58878 Тогда Вы на нее почему-то не изволили ответить.

0
06.08.2012

Artur Nizamov

Зарегистрирован(а) : 3 августа 2012
Сообщений: 92

"...Система из двух автоматов является автоматом, из этого следует, что любая композиция автоматов является автоматом. "

Простите меня пожалуйста - я давно не занимаюсь ИИ профессионально и не хватило сил прочитать все и внимательно здесь написанное, но тем не менее не могу удержаться от желания прокомментировать некоторые моменты.

С одной стороны. Когда мы говорим, что любая композиция элементов (пусть даже двух элементов образующих систему) остается простым набором этих элементов, наверное мы не точны. Если эти элементы образовали некую систему, то эта система уже по определению обладает некими новыми свойствами не присущими отдельным ее элементам.

С другой стороны. Представим некоторую информационную строку (ну допустим из загорающихся лампочек образующих бегущие слова). Далее зададим себе вопрос - что мы хотим создать (ИИ) - содержание бегущей строки или структуру (в данном случае лампочки) на котрой может бегать это содержание? На мой взгляд вопрос принципиальный. И в данной беседе возможно происходит постоянная путанница с этим вопросом.

И кроме этого, то что до сих пор не нашли чего-то каким-то способом, не означает, что это в принципе невозможно. В то же время если мы не поняли чего-то, то можем реализовать это непонятое чем-то также непонятым до конца легко и быстро - на мой взгляд такая же утопия как и то, что можно легко и быстро понять свойства мозга определяющие его интеллектуальные возможности изучая спайки нейронов...
На мой взгляд - на сегодняшний день все же задача получить или выявить (а может увидеть уже существующую, упрощенную до предела) структуру (характеристики ее элементов и т.п.) которая позволит на ней реализовывать (но в дальнейшем) интеллектуальные процессы (в том числе и сознание, хотя это понятие напоминаю очень сырое на данный момент).

0
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

NewPoisk Иванов написал:
...
Новые идеи по ИИ ищут специалисты, да и то не все. 99% т.н. "разработчиков ИИ" не проходят даже простейший тест на профпригодность: http://gotai.net/forum/default.aspx?postid=54869#54869

Ваш Ликбез мне очень понравился.

NewPoisk Иванов написал:
P.S.
Кстати, на "новую парадигму ИИ" я уже составлял микрорецензию: http://gotai.net/forum/Default.aspx?postid=58878#58878 Тогда Вы на нее почему-то не изволили ответить.

Главным образом из-за этой, мягко говоря, лжи :

"Вы, ув. дамы и господа хоть бы ссылочку на ИТ в список литературы прикрутили. Просто из соображений научной этики. А то, знаете ли, как-то некрасиво получается: берем все идеи из одного источника, но рекламируем другие. Правда все равно наружу вылезет, а вы ведь все-таки уже далеко не студенты, «сдал и забыл»"

0
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

Artur Nizamov написал:
"...Система из двух автоматов является автоматом, из этого следует, что любая композиция автоматов является автоматом. "

Простите меня пожалуйста - я давно не занимаюсь ИИ профессионально и не хватило сил прочитать все и внимательно здесь написанное, но тем не менее не могу удержаться от желания прокомментировать некоторые моменты.

С одной стороны. Когда мы говорим, что любая композиция элементов (пусть даже двух элементов образующих систему) остается простым набором этих элементов, наверное мы не точны. Если эти элементы образовали некую систему, то эта система уже по определению обладает некими новыми свойствами не присущими отдельным ее элементам.
...

Новые качества в новой системе возникают, но качество "автоматности" сохраняется (система остается автоматом) если строится из автоматов.
Ваши дальнейшие рассуждения очень интересны и мне лично очень близки.


Думаю в этом направлении. Создавать неавтомат нужно из автоматов и это в принципе ВОЗМОЖНО.

0
06.08.2012

NewPoisk Иванов

Зарегистрирован(а) : 15 марта 2011
Сообщений: 49

Мне показалось что НПИИ копирует ИТ. Во всяком случае все ключевые идеи так или иначе оказываются ИТэшными. Если Вы считаете что это не так, приведите пример оригинальных идей.

0
06.08.2012

NewPoisk Иванов

Зарегистрирован(а) : 15 марта 2011
Сообщений: 49

Pavel Smertin написал:
Создавать неавтомат нужно из автоматов и это в принципе ВОЗМОЖНО.

Увы, НЕТ. "Неавтоматность" - свойство окружающей среды (УИ по терминологии ИТ).

Pavel Smertin написал:
Думаю в этом направлении.

Да откройте стр. 7-9 ИТ и прочитайте!

0
06.08.2012

Artur Nizamov

Зарегистрирован(а) : 3 августа 2012
Сообщений: 92

Животная или бактериальная клетка по большому счету - набор химических элементов... (отдельно взятый хим. элемент по большому счету не адаптивен и не "когнитивен".
Но клетка.... На этом наборе химических элементов возникает новый процесс который мы интуитивно называем жизнью... ))) .

И извините пожалуйста еще раз: процессы (жизнь в данном примере) и структура на которой мы хотим их реализовывать - разные вопросы имхо... )))

0
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

Artur Nizamov написал:
Животная или бактериальная клетка по большому счету - набор химических элементов... (отдельно взятый хим. элемент по большому счету не адаптивен и не "когнитивен".
...

Хим. эл. в живой клетке не является автоматом, а отдельно взятый хим. элемент по любому счету является автоматом, не адаптивен и не когнитивен.
Мне так кацся.))

0
06.08.2012

Artur Nizamov

Зарегистрирован(а) : 3 августа 2012
Сообщений: 92

Попробую еще сильнее поутрировать для наглядности и простоты. Предложить поразмыслить с другой стороны.

Мозг человека вынужден выполнять какие-то функции необходимые для питания организма (в конечном итоге клеток-элементов мозга). Ну представим, что мы освободим его от этих необходимых в естественной природе функций. Думаю, что он по прежнему будет иметь то, что мы интуитивно называем интеллектуальными возможностями. Для упрощения возьмем теперь клетку и тоже освободим ее от аналогичных функций. Сделать это можно промоделировав молекулы на ЭВМ. Теперь молекулы не стареют, нет необходимости в потреблении пищи для синтеза новых молекул, нет необходимости в существовании сложной структуры клетки, которая ранее была жизненно необходима для обеспечения замены «изнашиваемых» молекул, для появления новых клеток (для того, что биологи называют делением) и т.д. и т.п.
Ну и далее…..
Это и будет в упрощенном приближении среда способная к интеллектуальной деятельности. Вопрос только в том - какие свойства мы должны вложить в модель молекулы и сколько их должно быть. В некотором приближении об этом уже говорилось в приводимых ранее набросках (ссылки были ранее). Вопрос не стоит в конкретных свойствах какой то молекулы. Общая способность системы зависит в основном от количественных характеристик и их разнообразия…
Ну и под занавес – попробуем найти (до крайности абстрагироваться от отдельно взятой молекулы) свойства общие для любых молекул включая крайние количественные характеристики такие как, например, время жизни молекулы от 0 до бесконечности, вопрос однозначности преобразования одной молекулы в другую… и т.д. и т.п. )))

Конечно эта каша будет сначала «слепой» и не скоро скажет – папа привет… ))).

0
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

Artur Nizamov написал:
Попробую еще сильнее поутрировать для наглядности и простоты.
...
Сделать это можно промоделировав молекулы на ЭВМ.
...

Уважаемый Артур, в этом вся суть проблемы и состоит: МОЖНО промоделировать молекулы на ЭВМ
или НЕЛЬЗЯ ??

0
06.08.2012

Artur Nizamov

Зарегистрирован(а) : 3 августа 2012
Сообщений: 92

"...Вопрос только в том - какие свойства мы должны вложить в модель молекулы и сколько их должно быть. В некотором приближении об этом уже говорилось в приводимых ранее набросках (ссылки были ранее). ..."
В принципе можно. Но не мне. Я не хочу и не могу заниматься программированием. Но это не вопрос о принципиальной невозможности в свете "новой" парадигмы ))).

И самое важно в том, что на мой взгляд суть проблемы не в том МОЖНО или нет промоделировать на классической ЭВМ, а именно в том что описанная каша - и ЕСТЬ один из возможных вариантов среды которая может при определенных условиях обеспечить "интеллектуальность" как бы это слишком просто и поэтому неправдоподобно ни казалось на первый взгляд.

0
06.08.2012

Evgeney Knyazhev

Зарегистрирован : 15 ноября 2011
Сообщений: 831

Pavel Smertin написал:
Компьютерные аналогии к мозгу вряд ли приемлемы.
Вы задачу решили? ))

о какой задаче идёт речь??? кстати, как вы прокомментируете победы шахматных ботов над человеком? :D компьютерные аналогии очень даже применимы, ибо речь идёт о делах СОИ ;-)

0
06.08.2012

Evgeney Knyazhev

Зарегистрирован : 15 ноября 2011
Сообщений: 831

Artur Nizamov написал:
Мозг человека вынужден выполнять какие-то функции необходимые для питания организма (в конечном итоге клеток-элементов мозга). Ну представим, что мы освободим его от этих необходимых в естественной природе функций. Думаю, что он по прежнему будет иметь то, что мы интуитивно называем интеллектуальными возможностями

Артур, небольшая ремарка: организм стремится к мин. энергопотреблению, так что неиспользуемые мозгом навыки стираются.

0
06.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

Artur Nizamov написал:
"...Вопрос только в том - какие свойства мы должны вложить в модель молекулы и сколько их должно быть. В некотором приближении об этом уже говорилось в приводимых ранее набросках (ссылки были ранее). ..."
В принципе можно.
...
И самое важно в том, что на мой взгляд суть проблемы не в том МОЖНО или нет промоделировать на классической ЭВМ, а именно в том что описанная каша - и ЕСТЬ один из возможных вариантов среды которая может при определенных условиях обеспечить "интеллектуальность" ...

Самая простая молекула является сложнейшей волной волнообразно взаимодействующих между собой внутренних и внешних волн. На компьютере нельзя смоделировать это явление так, чтобы вычислительная процедура обладала свойствами волны.)))

0
07.08.2012

Evgeney Knyazhev

Зарегистрирован : 15 ноября 2011
Сообщений: 831

Pavel Smertin написал:

Artur Nizamov написал:
"...Вопрос только в том - какие свойства мы должны вложить в модель молекулы и сколько их должно быть. В некотором приближении об этом уже говорилось в приводимых ранее набросках (ссылки были ранее). ..."
В принципе можно.
...
И самое важно в том, что на мой взгляд суть проблемы не в том МОЖНО или нет промоделировать на классической ЭВМ, а именно в том что описанная каша - и ЕСТЬ один из возможных вариантов среды которая может при определенных условиях обеспечить "интеллектуальность" ...
Самая простая молекула является сложнейшей волной волнообразно взаимодействующих между собой внутренних и внешних волн. На компьютере нельзя смоделировать это явление так, чтобы вычислительная процедура обладала свойствами волны.)))

мда.... Павел, это было сильно сказано XDDD всякая мат. модель является приближённой с возможностью варьировать точность вычислений. и мозг человека тоже, как это ни странно, оперирует приблежёнными абстракциями окружающей действительности ;-) короче, чел. мозг -- это весьма быстрый вычислитель, мягко выражаясь. Но всё-таки скорость у него конечна. так что оставьте домыслы о "невычислительных задачах" ;D

0
07.08.2012

Artur Nizamov

Зарегистрирован(а) : 3 августа 2012
Сообщений: 92

"...Артур, небольшая ремарка: организм стремится к мин. энергопотреблению, так что неиспользуемые мозгом навыки стираются."

Не знаю ни о стремлениях к минимуму энергопотребления (вспоминается шоу толстяков), ни о используемых мозгом навыках... Что такое мозг в контексте ИИ?, что это за навыки?, где данные о том что стирается а что нет и т.д. и т.п., А вообще разве речь шла об этом. Может быть о том, что отказ за наблюдением каких-то навыков жизнеобеспечения мозга и уже вырабоотанных им каких-то алгоритмов облегчает нам понять, что же за структура эта - мозг, т.е. что такое та его часть (СВОЙСТВА-ХАРАКТЕРИСТИКИ), которая позволяет в дальнейшем появиться на ней то, что мы называем, ну, например, распознаванием образов. О том, что мозг быстрый вычислитель (в широком понимании слова "вычислитель") я бы не сказал. На мой взгляд - очень медленный, но очень пластичный и разносторонний (если так можно выразиться). ))) А вот уже выработанные алгоритмы действительно часто быстры и эффективны.

Видно, что мы говорим часто на разных языках, но это вполне нормально, и даже необходимо на начальных этапах.

"...Самая простая молекула является сложнейшей волной волнообразно взаимодействующих между собой внутренних и внешних волн. На компьютере нельзя смоделировать это явление так, чтобы вычислительная процедура обладала свойствами волны.)))"

У меня ощущения дежавю. Конечно я не могу представить ссылки, даже те наброски статей о который я говорил сохранились случайно и я рад этому. Но "новая" парадигма и волновой подход далеко не новы (я занимался мозгом лет 20 назад) и в той или иной форме они обсуждались среди исследователей. И свое отношение к этому я уже озвучивал в этой ветке ранее. Повторюсь иными словами. Если нам что-то не понятно, то не значит, что другое до конца не понятное является аналогичным (или даже тождественным) первой непонятке, которую мы хотим смоделировать...
По поводу необходимых свойств "материала мозга" я уже не раз говорил и в этой ветке и в приведенных набросках, может недостаточно полно, но уже это, на мой взгляд дает картину об уровне понятий (свойств или по философски "категорий") необходимых и ДОСТАТОЧНЫХ для построения материала "мозга" (и там ни слова о волнах ))) )... Конечно я понимаю, что это только мое мнение, которое, естественно, может быть опровергнуто или как минимум оспорено или же проверено на практике (к сожалению это не в моих силах)... )))

0
07.08.2012

Artur Nizamov

Зарегистрирован(а) : 3 августа 2012
Сообщений: 92

Когда одному приятелю высказал свое поверхностное мнение, что за 20 с лишним лет в области ИИ мало что изменилось (я сейчас не рассматриваю варианты кода под ИИ понимают базы данных с некоторым "движком" - экспертные системы или программы шахматных ботов и т.п. и т.д.) он рассказал мне следующее (правда не проверял на достоверность).
В начале прошлого века во время сеяния чего либо в поле, на сеялке сидел человек и закрывал сеялку на краю поля во время разворота трактора, чтобы семена не тратились на обочину. Прошло около 20 лет, прежде чем разумное человечество придумало протянуть трос в кабину тракториста, чтобы выполнять эту процедуру легко и просто без всяких помощников сутками болтающихся на сеялке... )))
Правда с другой стороны с тех пор (более 20 лет назад) появились смартфоны, планшетники и т.п., а у нас были Д3-28 (это груда такого "вычислительного" материала).
Извиняюсь за офтоп.

0
07.08.2012

Pavel Smertin

Зарегистрирован(а) : 26 июня 2012
Сообщений: 62

Artur Nizamov написал:
...
Если нам что-то не понятно, то не значит, что другое до конца не понятное является аналогичным (или даже тождественным) первой непонятке, которую мы хотим смоделировать...
По поводу необходимых свойств "материала мозга" я уже не раз говорил и в этой ветке и в приведенных набросках, может недостаточно полно, но уже это, на мой взгляд дает картину об уровне понятий (свойств или по философски "категорий") необходимых и ДОСТАТОЧНЫХ для построения материала "мозга" (и там ни слова о волнах ))) )...

Квантовая механика (оказалась не совсем квантовая и совсем не механика) утверждает, что картина мира, в которой молекулы представлены в качестве взаимодействующих шариков, является не адекватной картиной.

0
1 2 3 4 5 6 7 8

Отправить личное сообщение