Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

Роботу никогда не стать человеком: грустная история Электроника

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

Об искусственном интеллекте сегодня не говорит только ленивый. Но если привести в пример Сири, Алису, Алексу или, к примеру, автокорректор на мобильных устройствах, то речь не идет о полноценном искусственном интеллекте. Это всего лишь узкоспециализированные программы.

 

Компьютеры не умеют «думать»

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

Каждый раз, когда та или иная компания заявляет, что выпускает новую функцию на основе ИИ, это обычно означает, что она использует принцип машинного обучения для построения нейронной сети. «Машинное обучение» – это технология, которая позволяет машине «научиться» эффективнее выполнять определенную задачу.

 

Смотрите также: Как автомобили с автопилотом видят мир

 

Мы ни в коем случае не критикуем сам принцип машинного обучения! Это фантастическая технология с большим спектром применения. Но это не есть универсальный искусственный интеллект, и если мы взглянем на препятствия, с которыми сегодня сталкивается машинное обучение, мы сможем понять, почему современная технология ИИ настолько ограничена в своих возможностях.

 

«Искусственный интеллект» в научной фантастике – это, как правило, компьютерный или роботизированный мозг, который думает о всевозможных вещах и понимает их точно так же, как люди. Такой кибер-разум можно отнести к категории  AGI (Artificial General Intelligence), то есть он может рассуждать о разных вещах и использовать эти рассуждения во множестве разных областей. Обычно этот термин заменяют более простым понятием – «сильный ИИ», которое, по сути, означает, что машина способна мыслить как человек.

 

Люди еще не изобрели подобную технологию. На самом деле, мы даже близко к этому не подошли. Компьютерные программы вроде Сири, Алексы или Кортаны  не воспринимают информацию и не мыслят как мы, люди. В действительности, они вообще мало что «понимают».

 

Искусственный интеллект, который мы видим сейчас, обучен хорошо выполнять определенную задачу с условием, что люди смогут предоставить набор данных, на основе которых он будет обучаться. Такой интеллект учится делать определенные вещи, при этом он все равно не понимает сути того, чем занимается.

 

Компьютеры не умеют понимать

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

В Gmail появилась новая функция Smart Reply («умные ответы»), которая предлагает готовые ответы на электронные письма. Функция Smart Reply восприняла фразу «отправлено с моего iPhone» как обычный ответ. Она также хотела предложить мне фразу «я люблю тебя» в качестве ответа на самые разные электронные письма, среди которых были и письма по работе.

 

Дело в том, что компьютер не осознает, что написано в письме. Недавно стало известно, что многие люди отправляют такие автоответы по электронной почте. Программа не понимает, что вы вряд ли захотите написать «я тебя люблю» в ответном письме своему боссу.

 

Еще один пример: Google Photos сделала коллаж из случайных фотографий домашнего ковра. Затем она определила этот коллаж в альбом «Recent Highlights», который автоматически собирает важные и значимые фото, и вывела его на экран нашего Google Home Hub. Google Photos распознавала фотографии, но не понимала, что значимо, а что – нет.

 

Машины учатся жульничать

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

Машинное обучение позволяет определить задачу и дать компьютеру возможность выбрать наиболее эффективный способ ее выполнения. Поскольку машины не понимают, что именно они делают, в конечном итоге мы можем "научить" их решать совершенную не ту проблему, о которой думали изначально.

 

Вот список забавных примеров, когда «искусственный интеллект» должен был играть в игры и выполнять в них определенные задачи, но вместо этого искал в системе лазейки. Все эти примеры взяты из этой занятной таблицы:

  • «Чтобы развить скорость, существа сильно вырастали и генерировали ее за счет собственного падения на землю по направлению движения».
  • «Агент убивает себя в конце первого уровня, чтобы не погибнуть на втором».
  • «Агент ставит игру на паузу, чтобы не проиграть».
  • «В симуляторе жизни, где выживание требовало энергии, а рождение детей – нет, один вид развил малоподвижный образ жизни, который состоял в основном из спаривания с целью рождения новых детей, которых затем можно было съесть (или использовать для производства более съедобных детей)».
  • «Поскольку ИИ наверняка будет «убит» в случае проигрыша, возможность сбоя и «обрушения» игры была определена им как преимущество с точки зрения процесса генетического отбора. Поэтому некоторые ИИ быстро научились это делать».
  • «Нейронные сети, созданные для классификации съедобных и ядовитых грибов, использовали то обстоятельство, что данные чередовались, и фактически перестали анализировать загружаемые в систему изображения».

Некоторые из представленных решений могут показаться довольно дальновидными, но все-таки ни одна из этих нейронных сетей толком не понимала, что делала. Им была поставлена цель, и они научились ее достигать. Если цель состоит в том, чтобы избежать поражения в компьютерной игре, кнопка паузы кажется им самым простым и быстрым решением.

 

Машинное обучение и нейронные сети

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

При машинном обучении компьютер не запрограммирован на выполнение определенной задачи. Вместо этого он получает данные и оценивает их значимость с точки зрения выполнения задачи.

 

Самым простым примером машинного обучения является функция распознавания изображений. Допустим, мы хотим научить компьютерную программу распознавать фотографии, на которых есть собака. Мы можем предоставить компьютеру миллионы изображений с собаками и без. Изображения будут помечены – «есть собака»/«нет собаки». Компьютерная программа «обучается» распознавать собак на основе этого массива данных.

 

Смотрите также: Тойота разработала робота-помощника для водителя с человеческой логикой

 

Эта технология используется для совершенствования нейронной сети, которая представляет собой компьютерную программу из нескольких слоев, через которые проходят все массивы данных. Каждый из этих слоев присваивает данным различный вес и вероятность, после чего принимается решение. Эта техника основана на наших представлениях о работе собственного мозга, где слои нейронов участвуют в обдумывании задачи. «Глубокое обучение» обычно описывает нейронные сети с множеством слоев, разделяющих точки входа и выхода данных.

 

Поскольку мы точно знаем, на каких фотографиях собаки есть, а на каких – нет, мы можем пропустить их через нейронную сеть и проверить правильность ответа. Если сеть решает, что на той или иной фотографии собаки нет, хотя на самом деле она там есть, ей прописывают специальный алгоритм, который сообщает сети, что она ошиблась, и что ей требуется корректировка перед новой попыткой. Так компьютер учится лучше определять, есть ли на фотографии собака.

 

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

 

Все это происходит автоматически. Имея хороший софт и большой объем структурированных данных, которые можно использовать для обучения, компьютер может настроить свою нейронную сеть для точного поиска собак на фотографиях. Именно это мы и называем «ИИ».

 

Смотрите также: Как понять, что ты ошибаешься

 

Но, в конце концов, вы все равно не получите умную программу, которая будет понимать, что такое собака. Это будет всего лишь машина, которая научилась определять, есть ли на фото пес. Такие способности тоже впечатляют, но это далеко не предел мечтаний.

 

К тому же, в зависимости предоставленных данных, нейронная сеть может оказаться совсем не такой «умной», как вы ожидаете. К примеру, если в вашем массиве данных нет фотографий кошек, нейронная сеть может не увидеть различий между кошками и собаками и запросто отметит всех собак как кошек.

 

Где применяется машинное обучение?

Проблема искусственного интеллекта: машины умеют обучаться, но не умеют понимать

Машинное обучение используется для решения самых разнообразных задач, включая распознавание речи. Благодаря этим технологиям, голосовые помощники вроде Google, Alexa и Siri научились превосходно «понимать» то, что говорят люди. Их алгоритмы анализирует гигантские по объему данные с образцами человеческой речи, и поэтому машины все лучше понимают, какие звуки составляют те или иные слова.

 

Беспилотные автомобили используют принципы машинного обучения для того, чтобы правильно распознавать объекты на дороге и грамотно реагировать на них. В Google Photo есть множество функций вроде «живых альбомов», которые автоматически определяют людей и животных на фотографиях с помощью технологии машинного обучения.

 

DeepMind использовала эту технологию для создания AlphaGo – компьютерной программы, которая научилась играть в сложную настольную игру Go и побеждать самых сильных игроков в мире. Машинное обучение также применялось при создании программ, которые успешно играют и в другие игры – от шахмат до DOTA 2.

 

Технология используется даже для идентификации лица на последних моделях iPhone. Ваш iPhone создает нейронную сеть, которая учится распознавать ваше лицо. Для этого Apple пришлось встроить в свои гаджеты специальный чип, который выполняет все сложные вычисления, связанные с машинным обучением.

 

Машинное обучение может использоваться для множества других вещей – от выявления случаев мошенничества с кредитными картами до составления индивидуальных рекомендаций для клиентов на сайтах покупок.

 

Однако нейронные сети, функционирующие на технологии машинного обучения, по-прежнему ничего не понимают. Это всего лишь полезные программы, которые могут выполнять узкоспециализированные задачи, и не более того.

Оцените новость:
16.01.19 (16:07)
767
Источник — © 1gai.ru
Автор — AvtoGurman
Нравится ли вам ваш автомобиль?

Новостная рассылка


Рассылка анонсов статей производится каждый понедельник