4. Подъем и спад исследований (1980-е)
Начало 1980-х годов казалось многообещающим для исследователей искусственного интеллекта, в эти годы значительно возросли продажи программного обеспечения и аппаратных средств, связанных с искусственным интеллектом, к 1986 году они превысили 400 000 000 долларов. Основная часть дохода получена за счет экспертных систем и LISP-машин [5].Экспертные системы использовались многими коммерческими компаниями для диагностики, прогнозирования инвестиций, добычи полезных ископаемых и т.д. В те же годы были выявлены ограничения экспертных систем по количеству правил. Например, системный конфигуратор XCON, разработанный компанией Digital Equipment Corporation, который пользовался небывалым успехом и сохранял для компании миллионы долларов в год, содержал около 10000 правил и его техническая поддержка стала крайне трудной задачей.
В 1981 году правительство Японии инвестировано 850 млн. долларов в разработку компьютера пятого поколения, который должен был обладать интеллектуальным поведением: распознавать образы, понимать и синтезировать и переводить речь [11]. Однако уже к 1987 новые персональные компьютеры от IBM и Apple стали мощнее и дешевле LISP-машин, что разрушило данный сегмент бизнеса. А уже к 1991 году стало понятно, что надеждам, возложенным на компьютеры пятого поколения, не суждено сбыться. Финансирования не было прекращено, однако, даже к 2004 году большая часть планов не была осуществлена [12].
В 1982 году Джон Хопфилд разработал новую модель искусственных нейронных сетей (сеть Хопфилда), которая могла по-новому обрабатывать сигналы, а Дэвид Румельхарт и Пол Вербос разработали метод обратного распространения ошибки для обучения нейронных сетей. Эти открытия положили начало новой эры развития искусственных нейронных сетей, которые практически не исследовались с 1970 [13]. Они нашли применение в таких областях как распознавание речи и построение самообучающихся машин.
Искусственная жизнь как отдельное научное направление выделилась из теории искусственного интеллекта в 80-х годах, когда состоялась первая Международная конференция ALife I (1989 г., Лос-Аламос).
Вскоре за ней последовали Европейская конференция по искусственной жизни и Международная конференция по моделированию адаптивного поведения (обе —1991 г., Париж).
Тематика первых мероприятий затрагивала темы, как теперь выражаются, “мягкой” искусственной жизни — создание вычислительных систем и моделей, действующих на базе биологических и эволюционных принципов. В последние же годы, во многом в связи с развитием нанотехнологических дисциплин и молекулярной биологии, а также благодаря возросшему пониманию назначения отдельных генов и способов их взаимодействия и появлению средств манипуляции отдельными молекулами, существенное внимание стало уделяться новой концепции “влажной” искусственной жизни — созданию новых, искусственно синтезированных биологических форм, что требует философского обоснования искусственной жизни и как минимум определения понятия “жизнь” (что же вообще понимать под этим словом). В соответствии со спецификой нашего издания мы рассмотрим “мягкую” форму искусственной жизни.
Одной из главных задач искусственной жизни считается создание искусственных существ, способных действовать не менее эффективно, нежели живые организмы1. Только способы достижения этой цели существенно отличаются от общепринятых в практике искусственного интеллекта, где задействованы самые разные инженерные технологии и математические концепции (выбираемые фактически бессистемно), характеризующиеся, тем не менее, достаточно четкими и прозрачными причинно-следственными связями между исходными данными экспериментов и результирующим поведением моделируемых объектов. Так, чаще всего действия роботов основываются на системах логического вывода, выполняющих известные манипуляции с наборами фактов и правил. Нейронные сети, результат работы которых менее предсказуем, находятся на стыке искусственного интеллекта и искусственной жизни и активно задействованы представителями каждого из этих направлений, а вот такая технология, как генетические алгоритмы, сегодня по праву считается полноценной вотчиной искусственной жизни. Общепринятые же традиционные подходы, базирующиеся на компьютерной архитектуре фон Неймана и вычислительной концепции Тьюринга (хранимые в памяти и не модифицируемые программы, выполняемые последовательно), в искусственной жизни особой популярностью не пользуются.
Пожалуй, главное отличие искусственной жизни от других сфер искусственного интеллекта заключается в стремлении не просто добиться поведенческого сходства искусственных существ с биологическими, а достичь этого с помощью естественных, природных, эволюционных подходов. Тем самым не только достигается прагматический результат, но и появляется шанс познавать базовые принципы функционирования и развития живых существ “изнутри”. На такой основе и намечается переход от “мягкой” сферы исследований к “влажной” — искусственному созданию биологической жизни эволюционным путем “снизу вверх”. Поэтому закрытые решения, пусть и позволяющие добиться высокой эффективности действий робота или моделируемого объекта, в классических проектах ИЖ обычно не применяются и не представляют ценности, если не содержат информацию, помогающую познать реальный мир через познание самой модели.
Хотя, конечно, далеко не все исследователи, занимающиеся проблемами сферы искусственной жизни, стремятся к глубокому познанию реальности. Многих интересуют конкретные прикладные результаты, и хорошее соответствие действий искусственных и естественных существ уже само по себе может служить научным инструментом (за счет предсказания поведения). Поэтому значительная область искусственной жизни охватывает вопросы построения систем эволюционного, самоорганизующегося, масштабируемого, адаптивного поведения, основанных на биологических принципах. Ведь немалое число практических проблем невозможно решить точными математическими методами по самым разным причинам (неполнота исходных сведений, большое число конкурентов и противников, высокие размерность задачи и динамика действий в среде). Поэтому нередко проще смоделировать процесс развития некоторой ситуации, нежели пытаться сразу вычислить точный ответ [14].
5. Развитие искусственного интеллекта (1993 – настоящее время)
1990-е годы стали эрой развития, так называемого слабого искусственного интеллекта - систем, содержащих лишь некоторые функции, которые можно назвать интеллектуальным поведением. Такие системы интересны с коммерческой точки зрения, поскольку позволяют добиться эффективного решения многих задач при небольших материальных и временных затратах.Получили большое распространения приложения со следующими функциями: распознавание лиц, системы автоматического планирования, системы предсказания прибыли и т.д.
В 1990-е годы появилось новое направление исследований искусственного интеллекта – интеллектуальные агенты. В искусственном интеллекте, под термином интеллектуальный агент понимаются разумные сущности, наблюдающие за окружающей средой и действующие в ней, при этом их поведение рационально в том смысле, что они способны к пониманию и их действия всегда направлены на достижение какой-либо цели. Такой агент может быть как роботом, так и встроенной программной системой. Об интеллектуальности агента можно говорить, если он взаимодействует с окружающей средой примерно так же, как действовал бы человек [15].
Важным событием в развитии искусственного интеллекта стала разработка в 1997 году компьютера для игры шахматы Deep Blue, который смог обыграть чемпиона мира по шахматам Гарри Каспарова.
Также в 1997 году проводится первый футбольный турнир между роботов RoboCup.
В 2005 году начат Blue Brain Project – проект по моделированию неокортекса (часть головного мозга) человека и исследованию работы мозга целиков [16]. Результаты, полученные в ходе работы над проектом, могу оказаться крайне важными для исследования искусственного интеллекта.
В 2007 году исследователи из университета Альберта разработали программу, которая играет в шашки и при этом никогда не проигрывает [17].
Можно предположить, что такие направления развития искусственного интеллекта как интеллектуальные агенты, многоагентные системы, системы искусственной жизни, нейронные сети и робототехника будут активно развиваться в ближайшие годы.
Ключевым фактором, определяющим сегодня развитие технологий искусственного интеллекта, считается темп роста вычислительной мощности компьютеров, так как принципы работы человеческой психики по-прежнему остаются неясными (на доступном для моделирования уровне детализации). Поэтому тематика конференций об искусственной интеллекте выглядит достаточно стандартно и по составу почти не меняется уже довольно давно. Но рост производительности современных компьютеров в сочетании с повышением качества алгоритмов периодически делает возможным применение различных научных методов на практике. Так случилось с интеллектуальными игрушками, так происходит с домашними роботами.
Снова будут интенсивно развиваться временно забытые методы простого перебора вариантов (как в шахматных программах), обходящиеся крайне упрощенным описанием объектов. Но с помощью такого подхода (главный ресурс для его успешного применения - производительность) удастся решить, как ожидается, множество самых разных задач (например, из области криптографии). Уверенно действовать автономным устройствам в сложном мире помогут достаточно простые, но ресурсоемкие алгоритмы адаптивного поведения. При этом ставится цель разрабатывать системы, не внешне похожие на человека, а действующие, как человек.
Ученые пытаются заглянуть и в более отдаленное будущее. Можно ли создать автономные устройства, способные при необходимости самостоятельно собирать себе подобные копии (размножаться)? Способна ли наука создать соответствующие алгоритмы? Сможем ли мы контролировать такие машины? Ответов на эти вопросы пока нет.
Продолжится активное внедрение формальной логики в прикладные системы представления и обработки знаний. В то же время такая логика не способна полноценно отразить реальную жизнь, и произойдет интеграция различных систем логического вывода в единых оболочках. При этом, возможно, удастся перейти от концепции детального представления информации об объектах и приемов манипулирования этой информацией к более абстрактным формальным описаниям и применению универсальных механизмов вывода, а сами объекты будут характеризоваться небольшим массивом данных, основанных на вероятностных распределениях характеристик [18].
Заключение
Несмотря на то, что история науки об искусственном интеллекте насчитывает только около 60 лет, что значительно меньше истории развития большинства современных областей науки, ее вполне можно считать самостоятельной и зрелой наукой.Результатом работы ученых стали компьютерные программы и аппаратные средства, которые зачастую справляются со многими сложными задачами лучше, чем человек. Например, существуют программы, которые играют в триктрак, бридж, шахматы и покер значительно лучше среднего человека.
Множество прикладных функций «слабого» искусственного интеллекта уже заняли свое место в повседневной (в поисковых системах, помощниках, почтовых агентах) работе большого количества людей. Постепенно программное обеспечение, обладающее интеллектуальным поведением, берет на себя рутинную работу, которую раньше должен был выполнять человек.
Однако, как показывает история предмета, надеяться на скорое появление «сильного» искусственного интеллекта не приходится, к тому же, на сегодняшний день не существует адекватного метода оценки разумности, а разработанный Аланом Тьюрингом тест имеет ряд недостатков, описанных ранее.
Можно сделать вывод о том, что функции «слабого» искусственного интеллекта будут активно развиваться и интегрироваться в программное обеспечение и аппаратные средства в ближайшем будущем.
Список литературы
1. McCalloch W.S., Pitts W. A logical calculus of the ideas immanent in nervous activity. Bull. Math. Biophys. – 1943. – N5. – pp.115–1332. Hebb D.O. The Organization Of Behavior. - New York: Wiley 1949. – pp. 215-217
3. Turing A. Computing machinery and Intelligence. – Mind – 1950. - №59 – pp. 433-460
4. Люгер Д.Ф. Искусственный интеллект. Стратегии и методы решения сложных проблем. – М.: Вильямс, 2005. – 29-55 с.
5. Джонс М.Т. Программирование искусственного интеллекта в приложениях. – М.: ДМК, 2006. – 16-20 с.
6. Winograd T. Procedures as a representation for data in a computer program for understanding natural language. – Massachusetts: The MIT Press, 1971. – pp. 260-280
7. SRI International. Shakey the Robot -http://www.sri.com/about/timeline/shakey.html
8. John R. Pierce, John B. Carroll, et al., Language and Machines — Computers in Translation and Linguistics. ALPAC report - Washington, DC, 1966. – pp. 112-140
9. Minsky M., Seymour P., Perceptrons: An Introduction to Computational Geometry - Cambridge MA: The MIT Press, 1972. - pp. 180-193
10. Berliner, Hans, et al. Backgammon program beats world champ, ACM SIGART Bulletin – 1980. - №69 - pp. 6–9
11. McCorduck .P. The fifth generation: Japan's computer challenge to the world. Edward Feigenbaum. CREATIVE COMPUTING – 1984. – №10 - p. 103
12. McCorduck. P. Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd, 2004. - p. 441
13. Рассел С., Норвиг П. Искусственный интеллект. Современный подход. М.: Вильямс, 2007. - 25 с.
14. Бобровский C. PC Week RE – 2005. – №3 - 28 c.
15. Intelligent Agent - http://en.wikipedia.org/wiki/Intelligent_agent
16. Markram, H. The blue brain project. Nat Rev Neurosci. – 2006. - №7 - pp.153-160
17. Chang, Kenneth. Computer Checkers Program Is Invincible - New York Times - 2007. - http://www.nytimes.com/2007/07/19/science/19cnd-checkers.html?hp.
18. Бобровский С. PC Week RE – 2001. - №32 - 32 с.