Иванов-Петров Александр (ivanov_petrov) wrote,
Иванов-Петров Александр
ivanov_petrov

Китайская комната, ИИ, тест Тьюринга и медоносные пчелы

Перечитывал книгу Е.Н. Панов. 2012. ПАРАДОКС НЕПРЕРЫВНОСТИ: ЯЗЫКОВОЙ РУБИКОН. О непреодолимой пропасти междукоммуникацией у животных и языком человека http://panov-ethology.ru/publications/vved.pdf Об этой книге я уже писал http://ivanov-petrov.livejournal.com/1815989.html

Там обратил внимание на одну строку, которая привела к странному сближению. Постараюсь его пояснить.

Есть известнейшее открытие языка пчел (von Frisch 1939) - было отмечено Нобелевской премией. Потом, в 80-х годах, некоторые ученые усомнились в этом результате. Сейчас сообщество этологов не имеет единого мнения - есть сильная критика, считающая это ошибкой - ошибкой очень большой, сильно исказившей исследование поведения животных. И есть те, кто придерживается традиционного (на данный момент) мнения, что язык танцев есть.

На русском даже издана книга Веннера с критикой гипотезы языка танцев. Есть кропотливые работы японца Охтани, которые привели исследователя к выводу, что языка танцев нет. Веннер с соавторами воспроизвел эксперименты Фриша и показал, что опыты были грязными, результаты недостоверны. Е.Н. Панов в ряде своих известных книг рассматривает эту историю в рамках своей критики современной парадигмы этологии.

Что же во всем этом интересует меня? Ну конечно же, нарочный - один момент, высказанный случайной почти что фразой. Не это интересовало исследователей поведения.



Вот итоговая работа Охтани с его результатами за индивидуальным поведением пчел, он проверял, в самом ли деле они передают информацию о месте взятка танцем.

OHTANI T. 2008. Recruitment efficiency of waggle dances performed by a worker honeybee and the influence on her dance performance by recruited foragers. Humans and Nature 19 http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.514.5264&rep=rep1&type=pdf
У Панова есть пересказ:
"Коротко говоря, был сделан вывод, что танец является своего рода побочным эффектом физиологического состояния пчелы, наблюдаемым в тех случаях, когда это состояние оптимально. Поскольку, как считает Охтани, в танце задействованы те же нервные структуры и мышцы, что и в полете, сам танец можно расценивать как «псевдополет», проделываемый пчелой в состоянии повышенного общего возбуждения и «не контролируемый его исполнительницей».

...информация о местоположении источников корма, действительно содержащаяся в танце, может быть извлечена человеком-наблюдателем, но не используется самими пчелами при поиске ими корма. Было показано, что поисковое поведение пчел ничем принципиально не отличается от того, что известно для прочих летающих насекомых, разыскивающих пропитание по запаху. Оказалось, что это феномен популяционный, необъяснимый в терминах парных взаимодействий (Wenner 1974; Wenner, Wells 1990; Wells et al. 2010)."

--------
Итак, соберем нужные кусочки мозаики вместе. Имеется ситуация: пчелы внутри улья в танце на сотах "излучают" информацию о месте источника корма, человек-наблюдатель способен эту информацию считать с танца. То есть информация в танце есть - пусть это "псевдополет", проигрывание реального полета в дрожаниях и вибрациях, но в танце в самом деле содержится эта информация. Однако эксперименты над несколькими десятками индивидуально меченых пчел не показали статистически достоверно, что пчелы в самом деле используют эту информацию. Поэтому считается, что в танце НЕ передается эта информация и языка пчел нет.

Я оставлю в стороне причины, отчего - как мне кажется - опыты не выявили передачи информации - это уже пчелиные тонкости, и разбираться в них имеет смысл тому, кто, скажем так, не менее трех лет наблюдал за пищевым поведением пчел. Иначе не будет понятно, будут одни пустые фантазии. Так что этологам, в самом деле заинтересованным в том, есть ли там передача информации, тут ничего сообщено не будет, как понятно. Я о другом.

Теперь напомню другой очень известный феномен. Штука весьма знаменитая, не буду пересказывать - просто процитирую Вики.

Китайская комната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Эксперимент был опубликован в 1980 году в статье «Minds, Brains, and Programs» журнала «The Behavioral and Brain Sciences. эксперимент описан в книге 1984 года «Minds, Brains and Science» и в январском выпуске журнала Scientific American 1990 года

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы

Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей. Доводы Сёрла направлены на критику позиции так называемого «сильного» искусственного интеллекта, согласно которой компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладают другими ментальными способностями, свойственными людям. Гипотеза слабого искусственного интеллекта, напротив, лишь говорит о том, что компьютеры способны имитировать ментальные способности человека, поэтому Сёрла она не интересует.

Формально аргументацию можно представить так:

Если гипотеза «сильного» ИИ верна, тогда существует такая программа для китайской письменности, при запуске которой в вычислительной системе эта система будет понимать китайскую письменность.
Я могу исполнить программу для китайской письменности без понимания этой письменности.
Следовательно, гипотеза «сильного» ИИ неверна.

«Мельница Лейбница» — мысленный эксперимент, описанный Готфридом Лейбницем в «Монадологии». Лейбниц предлагает представить машину размером с мельницу, которая симулирует чувства, мысли и восприятие. И если зайти внутрь такой машины, то ни одна из движущихся частей, обеспечивающих её работу, не будет являться сознанием или объяснением восприятия. Так Лейбниц пытался показать, что одних физических состояний недостаточно для функционирования сознания

«Бумажная машина Тьюринга» — машинный алгоритм для игры в шахматы, придуманный Аланом Тьюрингом в 1951 году[3], где в качестве машины-исполнителя выступал человек. При этом человеку не нужно было знать, как играть в шахматы, а нужно было просто исполнять алгоритм, на основе входных данных о ходе соперника (например, «при ходе противника N передвиньте ферзя на B7»). Тьюринг был оптимистом и считал, что компьютеры будут способны к поддержанию беседы на человеческом языке, для этого он и разработал то, что сейчас называется тестом Тьюринга

Часть критиков согласна с тем, что следование простым инструкциям на человеческом языке не создаёт понимания, однако это не значит, что такое понимание невозможно создать в принципе. Так, например, эти критики полагают, что эффект понимания достижим, если создать робота с самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться подобно ребёнку, а следовательно начать понимать так же, как человек. Сёрл возражал против того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь выполнял синтаксические манипуляции над символами

Ещё одно возражение к «китайской комнате» основано на том, что мы определяем, понимает ли человек китайские иероглифы, лишь по его поведению. Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает. Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние

Несмотря на длительные дискуссии исследователей из различных областей, спустя более чем 30 лет консенсус относительно аргумента Сёрла до сих пор не достигнут. Одни называют этот мысленный эксперимент самым известным контрпримером в истории, нанёсшим удар по функционализму, от которого тот так и не смог оправиться. Его также называют классическим аргументом для когнитивной науки[5]. Другие (например, Д. Деннет) считают этот аргумент явно ошибочным и вводящим в заблуждение
https://en.wikipedia.org/wiki/Chinese_room https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0

------------
Итак, есть целая отрасль знаний, которая весьма интересуется ответом - как понимать "компьютерный разум", который внешне выполняет разумные целесообразные действия (и владеет китайским языком), а изнутри мы видим, что это набор простых команд. То ли это считать разумом, то ли нет. Об этом написаны целые библиотеки книг и статей, и обсуждают со всех сторон, критикуют, защищают. Но чего не делали, насколько мне известно - не сравнивали с невыдуманной природной ситуацией.

Язык пчел уникален. Когда составляют таблицы, призванные показать переход свойств от языков животных к чязыку человека, язык пчел всегда занимает особую клету, самую близкую к человеческому языку. Самая сложная система, неверноятно, что она есть - отчего и силятся критики ее опровергнуть. Чтобы не у собак, не у обезьян, а у пчел была такая сложная коммуникативная система - это с ума сойти, это совершенно контринтуитивно.

Я обратил внимание, что это обратная ситуация к китайской комнате. У нас есть организмы, которые в самом деле передают (не кому-то, а просто излучают) информацию о важном обстоятельстве - месте, где есть корм. Высшие организмы, люди-наблюдатели, могут расшифровать эту информацию и установить, где находится это место. Однако успешность самих существ по принятым нами критериям эффективности низка, и потому - по критерию эффективности, не по чему другому - иы делаем вывод, что они не способны использовать эту информацию. Слишком мал процент тех, кто находит корм в указанном месте. Значит, существа не владеют языком, который у них есть; у них он есть, но они не могут его использовать.

В китайской комнате есть набор "простых команд", который "на выходе" имитирует владение сложным комплексным целым - языком. Это мысленный эксперимент.
В реальной практике этологов возникает реальная научная проблема ценой в Нобелевскую премию: у насекомых есть система коммуникации, язык, который не используется.

Понятно, как можно "снизить" проблему - если сказать, что пчела "просто" "псевдолетит", дергается в соответствии с недавно испытанным полетом, то с одной стороны по этому "следу в нервной системе" внешний наблюдатель может понять, куда следует лететь за кормом и насколько далеко. Это "просто" воспроизведение полета в ином типе двигательной активности. Такова догадка - строго это не показано, это лишь аналогия, которая призвана облегчить понимание, что наличный язык не является языком, сложнейшие паттерны нервной деятельности выбрасываются вхолостую.

Можно видеть, что это - всего лишь перефразирование. Оно неким образом помогает увидеть суть проблемы, и в то же время можно четче представить настоящий вопрос. У нас есть язык, используемый - допустим - инопланетными существами. Как мы будем решать, разумны ли они? Пока ответ про эффективность: мы слышим в языке (который мы расшифровали) указание на координаты - а из инопланетников туда отправляется лишь очень небольшая доля слышавших сообщение. Значит, говорим мы, это не сообщение и не язык - они не поняли сами себя.

Как мне кажется, это задача ничуть не хуже задачи китайской комнаты. У нее есть даже преимущества: это не мысленный эксперимент, а реальный. Причем не над пчелами, а над людьми: можно гуглить и искать, какие кто дает ответы.
Tags: biology4, science4, tech
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your IP address will be recorded 

  • 226 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →