Одно из самых громких событий, знаменующее революцию во всех областях человеческой жизни, прошло практически незамеченным. Руководитель “Старк Индастриз”, известный своей экстравагантностью Тони Старк не так давно заявил, что создан первый в мире полноценный искусственный интеллект - Джарвис. Он такой же разумный, как и мы, люди - уверяет Старк. Но так ли это? Давайте разберёмся.
Прежде всего - стоит отличать искусственное и имитацию. Искусственная кожа - материал, который приживить на место поврежденной естественной кожи, и этот материал функционирует так же. Она бы не только имитирует внешний вид кожи, но и передаёт её внутренние свойства. Искусственный дождь - это такой же дождь, только не из тучи, а из оросительной установки.
Но вот вместо слов “искусственное орошение” нельзя сказать имитация орошения. Получится, что никакого орошения нет, а создается только его видимость. То же самое искусственный отбор или искусственный спутник. Так что имитация — это скорее подделка, видимость, обман. Имитируется лишь внешняя сторона явления, его сути имитация не отражает. Например, имитация бурной деятельности.
Как отличить искусственный разум от имитации разума? Знаменитый “тест Тьюринга”, казалось бы, даст нам ответ на этот вопрос. Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор». Все участники теста не видят друг друга.
Самый общий подход предполагает, что ИИ будет способен проявлять поведение, не отличающееся от человеческого, причём в нормальных ситуациях. Эта идея является обобщением подхода теста Тьюринга, который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).
Однако Джон Сёрль опроверг концепцию Тьюринга мысленным экспериментом “Китайская комната”.
“Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».
Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».
Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы, мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный.
Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но всё же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла”.
Может ли компьютер, наборы программ, обладать разумом, понимают ли они? Слово понять восходит к древнему «взять, сделать своим».
Так вот, компьютер как раз этого и не может. Не может сделать своим, личным, осознать, прочувствовать. А имитировать может. Компьютер способен удивительно правдоподобно имитировать понимание различных аспектов языкового значения, может создавать иллюзию владения такими тонкими семантическими нюансами, которых полностью не осознает даже сам человек.
Разум человека - продукт тонких связей разнообразных биолого-химических процессов в мозге. Который развивался около 4 миллиардов лет до нынешнего состояния. Любой мозг является сложной нейронной сетью с глубокой вложенностью, взаимодействующей с системой других аналогичных сетей, и работа всей этой системы, являющейся «большой» системой с бесконечным недетерминированным количеством состояний, по сути и порождающая разум отдельного субъекта, не может быть смоделирована с помощью конечных автоматов любого типа.
Мозг животного (включая человека) и компьютер работают по-разному. Мозг является трехмерной сетью, «заточенной» под параллельную обработку огромных массивов данных, в то время как нынешние компьютеры обрабатывают информацию линейно, хотя и в миллионы раз быстрее, чем мозги. Микропроцессоры могут выполнять потрясающие расчеты со скоростью и эффективностью, значительно превышающими возможности человеческого мозга, но они используют совершенно другие подходы к обработке информации. Зато традиционные процессоры не очень хорошо справляются с параллельной обработкой больших объемов данных, которая необходима для решения сложных многофакторных задач или, например, распознавания образов.
Грубо говоря, можно создать компьютер, который обыграет в шахматы любого гения. Но он будет уметь делать только это и ничего больше!
Какой же эксперимент может нам показать, имеем ли мы дело с разумным существом, или с имитацией? Учёные полагают что единственный способ - постановка нестандартных задач с чётким результатом. Например, выживание в нестандартных ситуациях требует применения разных стратегий и понимания ситуации.
Кроме смелого заявления Старка, какие у нас есть доказательства разумности машины, Джарвиса? Может ли это существо понимать? Или только имитировать разум? Вопрос остаётся открытым.
Джон Смит
National Geographic
Прежде всего - стоит отличать искусственное и имитацию. Искусственная кожа - материал, который приживить на место поврежденной естественной кожи, и этот материал функционирует так же. Она бы не только имитирует внешний вид кожи, но и передаёт её внутренние свойства. Искусственный дождь - это такой же дождь, только не из тучи, а из оросительной установки.
Но вот вместо слов “искусственное орошение” нельзя сказать имитация орошения. Получится, что никакого орошения нет, а создается только его видимость. То же самое искусственный отбор или искусственный спутник. Так что имитация — это скорее подделка, видимость, обман. Имитируется лишь внешняя сторона явления, его сути имитация не отражает. Например, имитация бурной деятельности.
Как отличить искусственный разум от имитации разума? Знаменитый “тест Тьюринга”, казалось бы, даст нам ответ на этот вопрос. Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор». Все участники теста не видят друг друга.
Самый общий подход предполагает, что ИИ будет способен проявлять поведение, не отличающееся от человеческого, причём в нормальных ситуациях. Эта идея является обобщением подхода теста Тьюринга, который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).
Однако Джон Сёрль опроверг концепцию Тьюринга мысленным экспериментом “Китайская комната”.
“Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».
Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».
Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы, мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный.
Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но всё же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла”.
Может ли компьютер, наборы программ, обладать разумом, понимают ли они? Слово понять восходит к древнему «взять, сделать своим».
Так вот, компьютер как раз этого и не может. Не может сделать своим, личным, осознать, прочувствовать. А имитировать может. Компьютер способен удивительно правдоподобно имитировать понимание различных аспектов языкового значения, может создавать иллюзию владения такими тонкими семантическими нюансами, которых полностью не осознает даже сам человек.
Разум человека - продукт тонких связей разнообразных биолого-химических процессов в мозге. Который развивался около 4 миллиардов лет до нынешнего состояния. Любой мозг является сложной нейронной сетью с глубокой вложенностью, взаимодействующей с системой других аналогичных сетей, и работа всей этой системы, являющейся «большой» системой с бесконечным недетерминированным количеством состояний, по сути и порождающая разум отдельного субъекта, не может быть смоделирована с помощью конечных автоматов любого типа.
Мозг животного (включая человека) и компьютер работают по-разному. Мозг является трехмерной сетью, «заточенной» под параллельную обработку огромных массивов данных, в то время как нынешние компьютеры обрабатывают информацию линейно, хотя и в миллионы раз быстрее, чем мозги. Микропроцессоры могут выполнять потрясающие расчеты со скоростью и эффективностью, значительно превышающими возможности человеческого мозга, но они используют совершенно другие подходы к обработке информации. Зато традиционные процессоры не очень хорошо справляются с параллельной обработкой больших объемов данных, которая необходима для решения сложных многофакторных задач или, например, распознавания образов.
Грубо говоря, можно создать компьютер, который обыграет в шахматы любого гения. Но он будет уметь делать только это и ничего больше!
Какой же эксперимент может нам показать, имеем ли мы дело с разумным существом, или с имитацией? Учёные полагают что единственный способ - постановка нестандартных задач с чётким результатом. Например, выживание в нестандартных ситуациях требует применения разных стратегий и понимания ситуации.
Кроме смелого заявления Старка, какие у нас есть доказательства разумности машины, Джарвиса? Может ли это существо понимать? Или только имитировать разум? Вопрос остаётся открытым.
Джон Смит
National Geographic