Ainte


О критериях формализуемости мышления

Авторы статьи: Орфеев Ю.В., Тюхин В.С.

Выдающийся английский математик А. Тьюринг в известной работе «Вычислительные машины и интеллект», опубликованной в журнале «Mind» в 1950 г., предложил своего рода мысленный эксперимент, подобный тем, к которым в свое время часто прибегали в теоретической физике для уяснения всевозможного рода парадоксов. Вместо того чтобы искать прямой ответ на довольно сложный вопрос: «Может ли машина мыслить?», А. Тьюринг рассматривает своего рода игру в имитацию, которая сводится к следующему. В игре участвуют три игрока — машина, человек и «следователь». Имеются два канала связи (например, телетайп), которые соединяют «следователя» с человеком и вычислительной машиной, наделенной соответствующей программой.

Цель игры для «следователя» состоит в том, чтобы исходя из ответов на вопросы, заданные через телетайп, сделать вывод, кто на них отвечает: человек или машина, снабженная «думающей программой». «Следователю» разрешается задавать любые вопросы. Человек, естественно, стремится как можно лучше в своих ответах доказать «следователю», что он «настоящий» человек, в то время как задача машины имитировать как можно правдоподобнее мышление человека. «Следователь» выигрывает в этой игре, и машина объявляется неспособной «мыслить» в том случае, если после определенного числа ответов на свои вопросы «следователь» способен опознать, кто из игроков является человеком, а кто машиной.

Описанный выше критерий (или, как иногда говорят, «тест» Тьюринга) носит бихевиористский характер, так как применение этого теста не связано с анализом каких-либо внутренних характеристик человеческого сознания.
Внимательное рассмотрение теста Тьюринга показывает, что он содержит в себе ряд неясных условий и процедур.

Первое. Тьюрингом не разъяснено, какими критериями должен руководствоваться «следователь», когда он будет решать вопрос, с кем он вел диалог. Если «следователь» имеет заранее заданный набор формальных критериев, на основе которых он решает вопрос, с кем происходил диалог, то нет принципиальных трудностей для создания соответственно указанному критерию машинной программы.

Примером формального подхода может служить следующая процедура диалога:
«Следователь»: «Сколько вам лет?»
Машина: «25».
«Следователь»: «Какая сегодня погода?» Машина: «Хорошая».
«Следователь»: «Где вы проводите свой отпуск в этом году?»
Машина: «Я пока точно не решил».
Этот диалог можно продолжить.

При этом условии, задав еще пять-десять вопросов и получив на них «вразумительные» ответы, «следователь» с полным правом может сказать, что диалог происходил с человеком. Создать машинную программу, способную отвечать на заданные вопросы по определенной теме, сейчас не представляет какого-либо труда, особенно если создатель программы будет заранее знать критерии, которыми руководствуется «следователь», когда он решает вопрос о ее разумном характере.

Если же «следователь» руководствуется неформальными критериями, то создание программы, которая давала бы возможность вести разговор, достаточно похожий на диалог с человеком, в силу этого невозможно осуществить. Примером использования неформального критерия может служить диалог такого рода:

«Следователь»: «Сколько вам лет?»
Машина: «25».
«Следователь»: «Скажите еще раз, сколько вам лет?»
Машина: «25».
«Следователь»: «Скажите еще раз, сколько вам лет?»
Машина: «25».

Вполне естественно, что машина на один и тот же вопрос, заданный даже десять раз подряд, будет давать один и тот же ответ. Следовательно, в этом случае ясно, что мы имеем дело скорее всего с машиной, а не с человеком. Мы не будем учитывать случай имитации человеком машины, так как главная для нас проблема состоит не в том, что в определенных условиях человек может «изобразить» машину, а в том, может ли машина подняться до уровня человеческого поведения.

Если бы предыдущий диалог происходил с человеком, он скорее всего выглядел бы так:

«Следователь»: «Сколько вам лет?»
Человек: «25».
«Следователь»: «Сколько вам лет?»
Человек: «25, я же сказал вам».
«Следователь»: «Сколько вам лет?»
Человек: «Почему вы задаете один и тот же вопрос?»

Конечно, программист, который создавал «думающую программу», мог бы предусмотреть, как должна вести себя машина в случае ответа на неоднократно задаваемые вопросы. Но программист не может предусмотреть все возможные тактики и стратегии «допроса», которые может использовать «следователь».

По условиям теста Тьюринга остается неясным и другое: кто тот человек, который участвует в имитационной игре и отвечает на вопросы «следователя». Если это пятилетний ребенок, то на многие вопросы последуют ответы «нет», «не знаю» и т. п. Если же в диалоге участвует хорошо образованный взрослый человек, то его ответы будут носить содержательный характер, и в этом случае создание машинной программы, «конкурирующей» с ним по содержательности ответов на любые вопросы, представляется нереальным.

Действительно, как подойти к созданию машины, способной осмысленно ответить на любые вопросы и, более того, своими ответами ввести в заблуждение «следователя», т. е. «выдать себя» за человека. В настоящее время существует только один путь создания такой машины: фиксировать в памяти ЭВМ все мыслимые вопросы и вразумительные ответы на них. Такая машина действительно сможет выдержать испытания на тест Тьюринга. Но возможность этого равносильна возможности, образно говоря, найти точку опоры, чтобы «поднять» земной шар.
Современные исследования в области разработки машинных программ, «отвечающих на вопросы», не дают пока надежд на то, что дальнейшее их развитие приведет к созданию «думающих» машин, удовлетворяющих критерию Тьюринга.

В данной связи интересно привести подлинный разговор психически больного человека с программой
«Доктор» 21.
Машина: «Здравствуйте. Я доктор. Садитесь, пожалуйста, за пишущую машинку и расскажите мне,
что вас беспокоит».
Больной: «Я хотел бы, чтобы у меня был мой багаж».
Машина: «Можете вы уточнить свой ответ?»
Больной: «Я не совсем ясно понимаю, какого рода уточнение требуется?»
Машина: «Вы полагаете, что это нормально не быть совсем ясно, какого рода уточнение требуется?»
Больной: «Да, совершенно нормально».
Машина: «Понимаю».
Больной: «Я потерял мой багаж».
Машина: «Вы говорите, что потеряли свой багаж?»
Больной: «Я чувствую потерянным без него».
Машина: «Часто вы чувствуете себя потерянным без него?»
Больной: «Нет, это впервые».
Машина: «Почему нет?»
Больной: «Потому, что я обычно не теряю своих вещей».
Машина: «Расскажите мне побольше о вашей семье».
Больной: «Я потерял мой багаж».
Машина: «Ваши родители когда-нибудь теряли вас?»

Работа подобных программ основана на том, что машина ищет ключевые слова в предложении, в то время как для каждого ключевого слова уже имеется стандартный ответ. Если не найдены ключевые слова, для которых в памяти машины готов стандартный ответ, машина просит уточнить вопрос или, чтобы создать видимость понимания, отвечает: «Гм, гм. Это интересно». Из вышеприведенного описания видно, что машина может вести разговор, совершенно не понимая ни смысла задаваемых ей вопросов, ни смысла ответов, которые она дает. Естественно, что такое поведение не может быть охарактеризовано как разумное, хотя эта программа удовлетворяет критерию Тьюринга.

Работа над программой «Студент» Д. Боброва также показала, что можно создать «понимающие» программы только для фиксированной области знаний.

Тест Тьюринга подвергался критике даже со стороны самих буржуазных кибернетиков, специалистов по философским вопросам, в частности Гундерсоном. Слабость критерия Тьюринга, по мнению Гундерсона, заключается в том, что он основан на сопоставлении мышления человека и ЭВМ только по конечному результату, а не по процессу. Следовательно, здесь речь может идти об имитации мышления машиной, а не о моделировании мыслительных процессов человека.

По существу Тьюринг в своей аргументации опирается на тот факт, что машина может заменять человека в определенной ситуации и действовать в ней как человек или даже лучше его. Но само по себе наличие у машины способности делать то, что делают люди, еще не может доказывать наличия у нее мышления. Гундерсон показывает, что понятие «мышление» включает определенную способность к универсализации деятельности. Для уточнения этого приводится следующий диалог между продавцом пылесосов и домашней хозяйкой.

Продавец пылесосов: «Вот пример того, что может делать универсальный пылесос модели 600». (Продавец прикладывает шланг с насадкой к ковру, и пылесос всасывает немного пыли).
Домохозяйка: «Что еще он может делать?»
Продавец пылесосов: «Что вы имеете в виду под фразой: „Что еще он может делать?“ Он просто всасывает пыль, разве вы не видите?»
Домохозяйка: «Да, я вижу, что он всасывает пыль, но я подумала, что он ведь универсальный. Разве он не может доставать до труднодоступных углов? Разве у него нет других насадок? А как насчет кошачьих волос на кушетке?»
Продавец пылесосов: «Он всасывает пыль. Вот для чего предназначены пылесосы».
Домашняя хозяйка: «О, это то, что он делает. Я думала, что вы показали мне один из примеров того, что он может делать».
Продавец пылесосов: «Это пример того, что он делает. То, что он делает,-это всасывание пыли».

Основой взаимного недопонимания участников диалога является то, что хозяйка ожидает нечто большего от универсального пылесоса модели 600. Идентификация мышления, на каких бы примерах ни пытались ее продемонстрировать, не похожа на идентификацию умения, например, плавать или играть в теннис. Таким образом, мышление не может идентифицироваться на основе фактов решения машиной отдельных интеллектуальных задач. В конце работы Гундерсона приводится воображаемый диалог между Тьюрингом и философом.

Тьюринг: «Вы знаете, машины могут мыслить».
Философ: «Боже мой! Неужели? Откуда вы это знаете?»
Тьюринг: «Они могут играть в то, что называется имитационной игрой» (За этим следует ее описание).
Философ: «Интересно, а что еще они могут делать? Они должны быть способны на многое, если они могут мыслить».
Тьюринг: «Что вы имеете в виду под фразой: „Что еще они могут делать?“ Я уже сказал, что они играют в имитационную игру. Это значит, что они мыслят, не правда ли?»

Позиция Тьюринга в этом диалоге подобна позиции продавца пылесосов, заключает Гундерсон.
«Выход» любой ЭВМ полностью определяется ее «входом», если отсутствуют сбои в аппаратуре. Случаи, когда в работу программы включены датчики случайных чисел, не меняют существа дела, так как область возможных «выходов» также определена «входом». Отождествив мыслительную деятельность человека с «поведением» машины, мы должны признать, что поведение человека строго детерминировано генетическим кодом, воспитанием, обучением и внешними стимулами; значит, у него нет свободы выбора, нет воления. Но такое понимание человеческого поведения и основанный на нем критерий Тьюринга являются механистическими.

Орфеев Ю. В., Тюхин В. С. Мышление человека и «искусственный интеллект». — М., «Мысль», 1978.-148 с. (Страницы: 97-104)



Ainte.tora.ru 2003–2006; Ainte.ru 2008–2017