ai artificial intelligence что такое

Избавит нас от всей работы или уничтожит привычный мир. Что такое общий ИИ и зачем его создают

В компании Google запустили проект Pathways для создания искусственного интеллекта (ИИ) следующего поколения, который сможет качественно выполнять сразу несколько задач и обучаться новым. Пока таких алгоритмов нет, а те, что существуют, не обладают такой гибкостью, но, когда они появятся, индустрия изменится навсегда. «Хайтек» объясняет, чем интересен общий или универсальный ИИ и опасно ли его создавать.

Читайте «Хайтек» в

Общий искусственный интеллект может помочь нам решить тупиковые проблемы, ускорить и оптимизировать работу, а может превзойти нас в интеллекте и создать новый мир, устройство которого мы перестанем понимать.

Насколько общий ИИ универсален? Как он будет работать?

Сам термин звучит как Artificial general intelligence (General AI, AGI) или «общий искусственный интеллект» (ОИИ). Его переводят как общий, настоящий или универсальный искусственный интеллект.

Пока что получилось создать только «узкий искусственный интеллект» (УИИ): он может выполнять очень конкретные задания. По мнению Аркадия Сандлера, директора Центра AI МТС, противопоставлять УИИ и ОИИ некорректно, так как искусственный интеллект, который есть сегодня, помогает нам автоматически выполнять какие-либо точечные функции на уровне человека или даже превосходя его.

В случае с ОИИ процесс решения задач происходит по-другому. Такая система сможет на основе полученной информации делать собственные выводы, а также самообучаться и даже осознать себя.

Зачем нам общий ИИ и где его будут использовать?

Общий ИИ сможет использовать общемировые знания о всех видах задач, а также смежные данные, чтобы решить конкретный вопрос. Такой ИИ будет учитывать контекст во время анализа текста, а также другие виды информации, например, аудиальные и визуальные.

Формально ОИИ подойдет для любых задач, так как он со своим подходом на основе данных может выдать ответ на любой вопрос. Несмотря на это, останутся сферы, в которых ОИИ не найдет своего применения: дело в том, что в некоторых областях и УИИ уже достаточно для эффективного функционирования.

Но есть и серьезные различия. По словам Даниила Киреева, ведущего исследователя в компании-разработчике продуктов по распознаванию лиц VisionLabs, общий ИИ расширит список проблем и вопросов, которыми будет заниматься алгоритм, например, это сложные составные задачи, требующие информацию о разных областях жизни.

Это может быть распознавание эмоций человека. Чтобы сделать однозначный вывод об этом, нужно обработать данные о выражении лица, ритме сердца, позе и произнесенных словах.

Кто занимается разработкой общего ИИ?

Такой проект запустили в Google. В компании собираются обучить ИИ множеству навыков, чтобы он стал универсальным. Отмечается, что разработчики собираются использовать мультимодальные модели, обрабатывающие и осознающие все поступающие сигналы, вне зависимости от способа передачи информации.

В компании сейчас находятся только на начальном этапе разработки. Но в планах создать ОИИ, который сможет решать миллионы различных задач, обобщать данные и комбинировать их. Базовые возможности нейросети уже опробованы в таких проектах, как Google Switch Transformer, Gshard и прочих. Тесты указанных моделей уже показали, что такие системы расходуют в десять раз меньше энергии, чем обычные нейросети.

Также в Китае создали чип Tianjic, в котором соединились методы нейробиологии и схема имитации человеческого мозга. В чипе есть более 150 ядер: они повторяют функции мозговых нейронов, а также могут одновременно воспринимать информацию и конвертировать ее в нервные импульсы для импульсной нейросети и обратно.

Импульсные нейросети применяют биологически правдоподобные модели нейронов, чтобы обрабатывать информацию. Это похоже на то, что происходит в человеческом мозге.

Еще в этом же направлении работала IBM. В компании запустили сверточную нейронную сеть на нейроморфическом чипе TrueNorth, которая имитирует мозг человека. Она потребляет в тысячи раз меньше энергии, чем современные процессоры.

TrueNorth — это самодостаточная вычислительная система, совмещающая процессор и память. Каждый чип состоит из 4 096 нейросинаптических ядер с 1 млн программируемых нейронов и 266 млн конфигурируемых синапсов.

Компания продолжает развиваться в этом направлении и в конце лета 2021 года представила новые чипы для корпораций Tellum — это новое поколение z-процессоров, которые предназначены для работы с критичными для бизнеса задачами.

Какие могут быть угрозы от общего ИИ?

Общий ИИ может серьезно изменить наши отношения с технологиями. Идея состоит в том, что машины будут выполнять все функции наравне с человеком, а может быть даже лучше.

Это значит, что они смогут создавать другие еще более мощные устройства. Как только это произойдет, человек навсегда отстанет в развитии от общего ИИ, который будет сверхбыстро учиться и производить все новые и новые решения. Этот процесс называют «сингулярностью».

В результате может случиться так, что общий ИИ станет последним изобретением человечества, а дальше мы просто будем наблюдать, как меняется мир вокруг, без осознания того, что происходит.

Пока что человечеству не удалось создать общий искусственный интеллект, но можно увидеть, как прогрессирует эта сфера: качество общения голосовых помощников, колонок, чат-ботов или развитие автопилота в электромобилях.

Но сейчас рано говорить о полноценном взаимодействии, ведь система до сих пор неидеальна, поэтому пока при принятии решений ИИ — это только инструмент, на который можно опираться, а не полноценная единица, которая может принимать решения.

Источник

Как искусственный интеллект становится эффективным бизнес-инструментом

ai artificial intelligence что такое

Лаборатории интеллекта

Летом 1956 года в американском Дартмутском колледже прошел двухмесячный научный семинар, посвященный Artificial Intelligence (искусственному интеллекту). Он собрал ведущих американских ученых в области теории игр, нейронных сетей и ИИ. Участники не ставили перед собой глобальных целей. Они просто пытались понять, можно ли обучить машину естественным языкам, натренировать ее формулировать концепции и создавать абстракции.

Именно на этом семинаре информатик и когнитивист Джон Маккарти предложил использовать термин Artificial Intelligence. Всего через год ИИ-лаборатории появились в университете Карнеги — Меллона, в Стэнфорде и MIT. Так изучение искусственного интеллекта стало официальной академической дисциплиной.

Первые проекты в области ИИ выглядели не более чем игрушками. К примеру, в 1966 году, через десять лет после Дартмутского семинара, появилась программа ELIZA, созданная американским ученым Джозефом Вейценбаумом. Она имитировала, а вернее пародировала разговор с психотерапевтом. ELIZA умела выделять в высказываниях пользователя ключевые слова и выстраивать шаблонные ответы.

До 1990-х годов заметных прорывов в сфере искусственного разума не было: казалось, технология так никогда и не обретет внятную форму и никогда не приблизится к всесильному ИИ, о котором писали фантасты. Но когда в 1997 году суперкомпьютер Deep Blue от IBM выиграл в шахматы у чемпиона мира Гарри Каспарова, об искусственном интеллекте вновь заговорили всерьез. В том же году появилась технология распознавания речи NaturallySpeaking, которая позволила машинам понимать человека «на слух». Следом возникло множество других проектов в области машинного перевода, распознавания и классификации изображений, обнаружения объектов.

В начале 2010-х годов вновь приобрела популярность такая разновидность искусственного интеллекта как нейросети, а также способы ее обучения — машинное и глубокое. Если раньше алгоритмы тренировали в основном на выполнение конкретных задач, то теперь они стали осваивать так называемые представления (features / representations) и учиться распознавать образы. Это оказалось возможным благодаря резкому росту мощности компьютеров. Вычисления начали выполнять с использованием графических процессоров, которые смогли на порядки ускорить процесс обучения моделей.

По мнению одного из крестных отцов ИИ, британского информатика Джеффри Хинтона, благодаря глубокому обучению в недалеком будущем машине удастся воспроизвести человеческий интеллект. Но пока искусственному разуму не хватает масштаба. Мозг человека имеет около 100 трлн синапсов (точек контакта двух нейронов. — РБК Тренды). Для сравнения: самая продвинутая на сегодняшний день языковая модель GPT-3 использует 175 млрд параметров.

ai artificial intelligence что такое

Ближе к бизнесу

Одним из главных препятствий для широкого применения ИИ до недавнего времени было слабое распространение моделей машинного обучения (machine learning, ML). Бизнес все еще плохо понимает, как их внедрять в бизнес-процессы и продукты, или слабо осведомлен об их возможностях. Разработка и применение таких моделей кажутся предпринимателям дорогостоящим и долгим процессом. Но ситуация быстро меняется.

Всего несколько лет назад для работы с ними действительно требовалось высокопроизводительное железо. Мощных машин было мало, их аренда стоила дорого.

Ситуацию изменили облачные технологии. Они радикально демократизировали доступ к мощной вычислительной инфраструктуре и предоставили удобные и понятные инструменты для работы с ИИ.

Так, уже сейчас облачные сервисы AI Cloud от SberCloud могут обеспечить любой бизнес — от транснациональной корпорации до стартапа — инфраструктурой и инструментами для решения ИИ-задач. Причем сервисы AI Cloud работают на базе самого мощного в России и СНГ суперкомпьютера «Кристофари», специально разработанного для работы с искусственным интеллектом.

В состав AI Cloud входит облачная платформа ML Space — набор продуктов для ML-разработки полного цикла. В «Сбере» ранее отмечали, что при создании ИИ-решений специалисты тратят лишь треть своего времени на обучение моделей. Остальное уходит на подготовку и прочую рутину. Благодаря продуктам AI Cloud команды дата-сайентистов могут посвятить обучению моделей 99% времени, работая из любой точки мира через облако.

ML Space позволяет организовать распределенное обучение на более чем 1 тыс. GPU (Graphics processing units — графические процессоры для высокопроизводительных вычислений). Как уверяют ее создатели, сейчас это единственная в мире облачная ML-платформа с таким функционалом. С ее помощью ресурсоемкие модели можно обучить за несколько часов. В сервис также входит модуль AutoML, который, по сути, является фабрикой по выпуску ML-моделей для тех компаний и организаций, у которых нет собственных специалистов в области data scienсe

Создатели ML Space сравнивают сочетание облачных технологий и новых инструментов машинного обучения с переходом от ручного труда к промышленному производству. Вместе они значительно ускоряют создание и выход на рынок готовых ИИ-решений и делают искусственный интеллект максимально доступным для бизнеса.

ai artificial intelligence что такое

Раскрыть потенциал

Среди основных векторов использования искусственного интеллекта компаниями — управление рисками и обеспечение кибербезопасности, автоматизация рутины, помощь в принятии оптимальных решений. Кроме того, бизнес успешно применяет ИИ, чтобы эффективнее собирать информацию для прогнозов и автоматизировать клиентские операции.

Как ИИ применяется в разных секторах экономики

Ожидается, что к 2025 году человечество будет хранить около 175 зеттабайт (175 млрд Гб) данных. Уже сегодня большую их часть генерируют не люди, а машины — различные информационные системы, датчики, интернет вещей. Очевидно, что обработать всю эту информацию и извлечь из нее пользу для бизнеса без искусственного интеллекта и машинного обучения просто невозможно. Тем более, что ее количество продолжает расти.

По подсчетам IDC, объем данных, созданных в течение следующих трех лет, превысит количество информации, которое появилось за последние три десятилетия. А за ближайшую пятилетку мир сгенерирует втрое больше данных, чем за предыдущую. И это будет подталкивать к активному использованию ИИ для сбора и обработки информации.

По мнению гендиректора SberCloud Евгения Колбина, именно «облака» станут главным драйвером развития ИИ в ближайшие годы, так как только с помощью облачных технологий можно преодолеть главные барьеры развития ИИ — недостаточную доступность высокопроизводительных вычислительных ресурсов для работы с ИИ и острую нехватку специалистов — дата-сайентистов, дата-аналитиков и дата-инженеров. Сейчас почти во всех отраслях наблюдается острая нехватка высококвалифицированных специалистов для работы с данными. Платформа QuantHub, которая специализируется на подборе специалистов в сфере Data Science, подсчитала, что на три объявления о вакансии приходится всего один потенциальный соискатель. По словам Колбина, именно развитие облачных ML-сервисов и AIaaS (Artificial Intelligence as a Service) позволит искусственному интеллекту в полной мере раскрыть свой бизнес-потенциал.

Подписывайтесь также на Telegram-канал РБК Тренды и будьте в курсе актуальных тенденций и прогнозов о будущем технологий, эко-номики, образования и инноваций.

Источник

Искусственный интеллект (artificial intelligence)

В самом широком смысле И. и. — это абстрактная теория челов., животного и машинного познания. Конечная цель ее развития — создание единой теория познания.

Как теорет. психология. И. и. представляет собой продолжение исследовательской программы, начатой еще Джорджем Булем: «Математика, к-рую мы должны создать, — это математика челов. интеллекта». Упомянутая математика известна под названием булевой алгебры и является системой, позволяющей представлять пропозиции (высказывания) в двоичной записи. Булева символическая логика наряду с разраб. языков программирования сделала возможной создание такой вычислительной науки, как И. и.

Э. Л. Пост заложил мат. основы продукционных систем, к-рые впоследствии были использованы в информ. психологии А. Ньюэлла и Г. А. Саймона.

«Продукционная система — одно из тех счастливых, но окрашенных в минорные тона событий, о к-рых историки науки часто говорят: практически готовый к использованию формализм, залежавшийся в ожидании научного применения. У продукционных систем долгая и неоднозначная история. Их использование в символической логике начинается с Поста, от к-рого они получили свое название. Они тж появляются под видом алгоритмов Маркова. Их использование в лингвистике, где они наз. тж правилами вывода, возводят к Хомскому. Наряду со мн. др. понятиями теории вычислительных систем, они приобрели по-настоящему широкое распространение, когда достигли своей операционализации в языках программирования.»

Сильные стороны и ограничения И. и. нагляднее всего проявляются при сравнении его с познавательной способностью человека в различных интеллектуальных областях. В качестве таких областей будут выбраны доказательство мат. теорем, правовое обоснование, решение задач в физ. науках и процессы научного открытия.

Доказательство математических теорем

Со времен Евклида для доказательства мат. теорем в геометрии, алгебре, дифференциальном и интегральном исчислении и в более совр. разделах математики было достаточно одного челов. интеллекта. Но для доказательства теоремы о четырех красках челов. интеллекту потребовалась помощь И. и. Наиболее творческие умы в математике тщетно пытались доказать справедливость гипотезы четырех красок, и это состоялось лишь после того, как Аппель и Хакен использовали компьютер в качестве полноценного интеллектуального партнера для точного и полного разрешения этой имеющей столетнюю историю загадки.

Кроме того, хотя истинность мат. доказательств зависит от их подтверждения при воспроизведении математиками-людьми, истинность доказательства Аппеля и Хакена можно установить только путем его независимой проверки с использованием др. компьютерных программ. Произошел серьезный отход от опоры исключительно на мат. рассуждение чел. как последней инстанции.

Гипотеза четырех красок была впервые выдвинута Фрэнсисом Гутри в 1852 г. и, невзирая на применение множества оригинальных и изобретательных мат. идей, не поддавалась доказательству до тех пор, пока, наконец, спустя столетие Аппель и Хакен не пустили в ход способности И. и. Гипотеза четырех красок кратко формулируется следующим образом: «Для раскрашивания любой карты т. о., чтобы соседние страны с общей границей имели разные цвета, достаточно четырех красок».

Решение задачи четырех красок требовало использования сложнейших методов для систематического анализа тысяч конфигураций карт, стран и цветов. Чтобы справиться с этой беспредельной сложностью, Аппель и Хакен разраб. новаторские компьютерные программы. Практически не связанный ограничениями в механическом анализе возможных конфигураций, интеллектуальный компьютер реализовал оригинальные интеллектуальные вклады в решение задачи четырех красок. В следующем отрывке Аппель и Хакен приводят впечатляющее описание возрастающей изощренности компьютерной программы и ее мат. идей, иногда превосходивших по своему качеству их собственные.

«В этот момент программа, теперь уже насыщенная нашими идеями и усовершенствованиями за 2 прошедших года, начала удивлять нас. Поначалу мы старались проверять ее аргументы вручную, с тем чтобы можно было предсказать курс, к-рому она последует в тон или иной ситуации, но теперь она вдруг начала действовать подобно шахматной ЭВМ. Она прорабатывала сложные стратегии, опирающиеся на все те приемы, к-рым она «научилась», и зачастую эти подходы были гораздо более искусными и умелыми, чем те, что предприняли бы мы сами. Тем самым она начала учить нас вещам в отношении возможных продолжений, к-рые оказывались для нас совершенно неожиданными. В каком-то смысле она превзошла своих создателей в определенных аспектах «интеллектуальных», а тж технических сторон этой задачи.»

Мат. доказательство теоремы о четырех красках повлекло за собой огромное количество расчетов, осуществляемых как чел., так и компьютерным интеллектом, однако интеллектуальные лабиринты последнего м. б. подвергнуты независимой проверке лишь с использованием др. компьютерных программ.

Революционное применение И. и. вызвало острые споры как среди математиков, так и среди философов. Аппель и Хакен выразили свое отношение к проблемам доказательства математиком и доказательства компьютером в следующих словах:

«Когда доказательства становятся длинными и отягощенными многочисленными расчетами, можно утверждать, что даже при возможности ручной проверки вероятность челов. ошибки будет значительно выше вероятности машинной ошибки; кроме того, если такие расчеты достаточно шаблонны, проверить достоверность самих программ гораздо легче, чем правильность ручных расчетов.

В любом случае, даже если окажется, что теорема о четырех красках имеет более простое доказательство, математикам все равно можно было бы посоветовать обратить более пристальное внимание на др. задачи, могущие обладать решениями этого нового типа, требующими вычислений или анализа, непосильного для одних лишь людей. Есть все основания полагать, что существует масса таких задач.»

Традиционно мат. науки отстаивали критерий ясного дедуктивного рассуждения в реализации доказательств, и такое рассуждение было исключительно продуктом челов. мат. разума. По мнению философа Тимочко, доказательство теоремы о четырех красках из-за его чрезмерной зависимости от компьютера, чьи операции не могут быть удостоверены чел., является неприемлемым.

«Если мы примем теорему о четырех красках как теорему, это обяжет нас к изменению самого смысла «теоремы» или, что еще важнее по сути, к изменению смысла основополагающего понятия «доказательства».»

Изменяется ли «смысл основополагающего понятия доказательства» или изменяется только субъект доказательства, — это стратегический вопрос для математиков и философов, однако интеллектуальные последствия искусственного мат. интеллекта вполне могут оказать радикальное влияние на внедрение подобных исслед. во всех дисциплинах.

Понятие компьютерной юриспруденции восходит к Готфриду Лейбницу, к-рый хотя и приобрел известность благодаря своим работам в области дифференциального и интегрального исчисления, был тж выдающимся философом и специалистом по междунар. праву. Лейбниц размышлял над созданием мат. машины, к-рая могла бы заменить юридич. споры между адвокатами или между судьями мат. выкладками по аналогии с тем, как разрешаются арифметические споры между бухгалтерами: «Давайте посчитаем».

Неск. столетий спустя Анна Гарднер разраб. компьютерную программу, предназначавшуюся не для замены юридич. споров мат. расчетами, а моделировавшую правовое обоснование в рамках машинной программы. Программа правового обоснования Гарднер была посвящена конкретно проблеме договорного права. Проблема договорного права была частью итогового экзамена, сдаваемого студентами 1-го курса юридич. факультета Гарвардского ун-та. Тем самым предоставлялась возможность сравнить между собой юридич. проницательность компьютерной программы и гарвардских студентов. Экзаменационная задача по договорному праву была связана с умением распознавать спорные вопросы в проблеме предложения и принятия.

Программа правового обоснования Гарднер содержит сложные иерархии знаний, представляющие собой факты по конкретной договорной проблеме и набор из 100 правил для реализации логических умозаключений в отношении этих фактов и принятия правовых решений. Логические умозаключения программы свелись в конечном счёте к 9 рез-там анализа рассматриваемой договорной проблемы, каждый из к-рых сопровождался специфическим определением по поводу того, был или не был фактически достигнут договор по различным пунктам в ходе обсуждения предлагаемых и принимаемых условий. В отличие от 9 анализов, реализованных компьютерной программой, студенты юридич. факультета Гарвардского ун-та реализовали только 4 анализа.

Программа правового обоснования Гарднер представляет собой одну из первых попыток проникновения в область правового обоснования. Эта программа фокусируется на четких вопросах в договорном праве, но только на элементарном уровне. Кроме того, хотя эта программа может оперировать имеющимися у нее фактами и правилами и принимать на их основе решения, она не может реагировать на более сложные аспекты этого права и правовой политики или на множественные судебные толкования. Установленные законом нормы уже сегодня м. б. включены в правовые экспертные системы, но потребуется огромный прогресс в И. и., чтобы приблизиться к мечте Лейбница о возможности разрешения споров среди адвокатов и судей на основе вычислительных процедур.

Решение задач в физических науках

Система решения задач на основе И. и. — гибкая система экспертных заключений с выводами, затрагивающими мн. области (flexible expert reasoner with multidomain inferencing, FERMI) — соединяет в себе научные принципы, общие методы и знания, связанные с конкретной предметной областью, что позволяет ей решать задачи в конкретных областях физ. науки. Структура FERMI делится на две иерархические структуры с взаимным обращением: схемы представления знаний и схемы представления методов, что обеспечивает возможность ее широкого применения в различных предметных областях (доменах). Общая схема представления знаний включает принцип декомпозиции и принцип инвариантности. Эти принципы являются мощными интеллектуальными принципами, находящими широкое применение в науке и математике в целом, и потому представляют наиболее интересные аспекты FERMI.

Филос. содержание принципа декомпозиции восходит к Декарту, к-рый советовал разделять любую трудную задачу на простые составляющие, а его мат. Содержание — к Лейбницу, к-рый продемонстрировал, что решение трудных задач в интегральном исчислении может достигаться путем разложения мат. функции на ряд поддающихся интегрированию простых функций. Принцип декомпозиции в системе FERMI применяется к таким задачам, как расчет суммарной потери давления и гидравлической системе при помощи разложения общего пути в этой системе на ряд составляющих путей и вычисления соотв. падений давления.

«Принцип декомпозиции и связанные с ним методы декомпозиции применяются к функционированию различных типов составных объектов. Например, декомпозиция применяется при вычислении падений давления или падений напряжения как функций путей; площадей или центров масс как функций областей и временных функций, выражаемых в виде функций частоты.»

Принцип инвариантности повсеместно используется в математике и в естественных науках. Уравнения физ. законов, как правило, содержат набор переменных и одну или более констант. В FERMI принцип инвариантности используется в сочетании с методом сравнения инвариантов для составлении уравнений при решении физ. задач.

«Например, энергия частицы может быть выражена через ее положение и скорость. Если энергия частицы является постоянной, рассмотрение поведения этой частицы в два различных момента времени (соотв. различным положениям и скоростям этой частицы) дает уравнение, связывающее эти положения и скорости.»

В FERMI схема представления количества или величины содержит общие знания, иерархически организованные т. о., чтобы у более низких и более специфических уровней имелась возможность наследовать знания от более высоких и более общих уровней. Верхним узлом в этой иерархии является величина, имеющая трех потомков: тип, разность величин и свойство. Тип имеет двух потомков: поле векторных величин и поле скалярных величин. Свойство тж имеет двух потомков: разложимую величину и инвариантную величину. Разложимая величина имеет двух потомков: путь и область. Инвариантная величина имеет трех потомков: путь, вход — выход и время. Путь разложимой величины и путь инвариантной величины имеют общее потомство: инвариант сумма/путь. Инвариант сумма/путь имеет двух потомков: падение давления и падение напряжения. И, наконец, падение давления имеет двух потомков: PD и PD2.

Методы решения задач в FERMI содержатся в иерархии схем представления методов. Корневым узлом этой иерархии является метод, имеющий трех потомков: метод, связанный со свойством, алгебраический метод и метод аналогий. Связанный со свойством метод имеет двух потомков: декомпозицию и сравнение инвариантов. Декомпозиция имеет двух потомков: управляющую структуру и тип объекта. Сравнение инвариантов имеет двух потомков: путь и вход — выход. Управляющая структура имеет трех потомков: известное, итеративное и рекурсивное. Тип объекта имеет двух потомков: путь и область. Путь как дочерний элемент сравнения инвариантов имеет двух потомков: вынужденный путь и преимущественное направление.

Способность FERMI решать задачи в областях физики резюмируется следующим образом.

«Задачи о давлениях в жидкостях. FERMI может находить разность давлений между двумя любыми точками в одной или большем числе жидкостей, находящихся в состоянии покоя.

Задачи о центрах масс. FERMI может находить центр масс любого плоского объекта, к-рый имеет прямоугольную форму или допускает разбиение на прямоугольные части.

Задачи об электрических цепях. FERMI может находить стационарные падения напряжения на разных участках электрических цепей, состоящих из любого небольшого количества проводов, резисторов и батарей, связанных различными способами.

FERMI может тж применять принцип инвариантности энергии для связывания массы и скоростей спутника или падающего объекта в двух различных точках траектории.»

Расширение границ применения общих принципов декомпозиции и инвариантности вместе с использованием знаний, связанных со специфическими предметными областями, сулит блестящие перспективы дальнейшему развитию FERMI. Авторы системы FERMI планируют распространение принципа декомпозиции на следующие области: механику, геометрию, электричество и магнетизм, теплоту и термодинамику, химию и волновые процессы. По мнению разработчиков FERMI, принцип инвариантности м. б. распространен на поддающиеся количественному выражению задачи сохранения импульса, момента количества движения и энергии.

Иерархическая структура схемы представления величины и схемы представления метода, включающая в себя интеллектуальные принципы инвариантности и декомпозиции, очевидно, делает FERMI способной к гибкому и универсальному применению. Эти способности, однако, жестко задаются заложенной в ней иерархической структурой. Этим предопределяется недостаток того типа изобретательности и интеллектуального иск-ва, к-рое характеризовало мыслительные способности в решении задач ее тезки, Энрико Ферми.

Процесс научного открытия

Существуют два подхода к процессам научного открытия с позиций И. и. При первом подходе не предпринимается попыток моделировать когнитивные процессы исследователей; здесь в основном используются технические методы И. и. Второй подход связан с мат. моделированием интеллектуальных процессов научного открытия.

Первый подход представлен машинными программами, к-рые открывают или повторно открывают научные и мат. знания. Используя набор изощренных эвристик, записанных в умещающемся всего на двух страницах LISP коде, автоматизированная вычислительная программа совершила целый ряд мат. открытий, включая принцип простых чисел (предположение о том, что любое четное число можно представить в виде суммы двух простых чисел) и осн. теорему арифметики. Шен разраб. широкую вычислительную архитектуру систем И. и. для совершения (научных) открытий, к-рая позволяет реализовать AM-программу и ее преемника EURISCO. Лэнгли, Саймон, Брэдшоу и Житков приводят описание целого ряда сложнейших программ, с помощью к-рых были заново открыты количественные законы в физике и астрономии. Напр., программа BACON.3 заново открыла, среди др., законы Галилея (об ускорении), законы Ома и третий закон движения планет Кеплера. В химических науках программа MetaDendral осуществила значительные открытия, к-рые были впоследствии опубликованы в элитарном научном журнале.

Второй подход представлен программой KEKADA, непосредственно и тщательно моделирующей эксперим. процедуры и научные открытия выдающегося биохимика Ганса Кребса, к-рому принадлежит приоритет в установлении природы эффекта орнитина и описании цикла мочевины. Кребс сделал свои открытия в 1932 г., а позднее Холмс — на основе лабораторных записей Кребса и интервью с ним — осуществил чрезвычайно подробную реконструкцию последовательности когнитивных и эксперим. событий, предшествовавших открытиям Кребса в области обмена веществ. Опираясь на эти описания Холмса, Кулкарни и Саймон создали KEKADA, программу И. и., к-рая имитировала биохимические открытия Кребса.

Процессы открытия KEKADA заключают в себе структуру управляющей логики высокого уровня, осн. на двухпространственной модели решения задач. Эта модель исследует, систематически и циклически, пространство образцов, состоящее из множества экспериментов и их результатов, и пространство правил (rule space), состоящее из гипотез и вложенных в них структур знаний. Эвристические операторы координируются для реализации поиска в пространстве образцов и пространстве правил.

Сравнительный анализ действий KEKADA с действиями Кребса показал высокую степень сходства с тем сложным и замысловатым процессом экспериментирования, к-рый привел к открытию орнитинового цикла. На основании этого почти полного сходства в действиях, Кулкарни и Саймон приходят к выводу, что KEKADA «представляет собой теорию стиля экспериментирования Кребса». Кулкарни и Саймон тж заключают, что в силу наличия в этой системе множества независимых эвристик широкой сферы действия, KEKADA представляет собой общую модель и общую теорию процесса научного открытия.

Вычислительные теории процессов научного открытия можно в целом понять на основе общей логики, к-рая включает набор базовых допущений.

«Исследования Кулкарни и Саймона по системе KEKADA будут использованы для проверки этих допущений и, т. о., для оценки самой логики вычислительных теорий научного открытия.

Допущение о том, что процессы научного открытия представляют собой подмножества общих стратегий решения задач, получает поддержку в двух пространственной модели решения задач, к-рая обеспечивает общую суперструктуру для развертывания управляющей логики в системе KEKADA.

Допущение о том, что процессы научного открытия могут моделироваться на основе стандартных эвристик вычислительных систем для автоматического решения задач, поддерживается. содержащимся в KEKADA широким набором общих эвристик, потенциально применимых к решению научных проблем, выходящих за круг решенных Кребсом.»

Вычислительные теории процесса научного открытия по существу направлены на эмуляцию когнитивных процессов, в отличие от теорий челов. процессов научного открытия, к-рые учитывают мотивационные и аффективные процессы.

«Наши изыскания направляются тем, что мы обозначили принципом внутренней мотивации креативности:

Люди будут проявлять наибольшую креативность, если они ощущают, что мотивированы в первую очередь интересом, наслаждением, радостью и напряжением, исходящими от самой работы, а не внешними давлениями. В сущности, мы говорим, что любовь людей к своей работе имеет тесную связь с творческим характером их деятельности. Это утверждение находит безусловную поддержку в описаниях феноменологии творческого процесса. Большинство отчетов специалистов о творческих личностях, как и их собственные сообщения, наполнены высказываниями о глубокой увлеченности и невероятной любви таких людей к своей работе.»

Внутренняя мотивация как необходимое условие челов. творчества не является существенной для вычислительных систем научного открытия. В подходе к научному открытию с позиций И. и. достаточным условием служит наличие механизмов алгоритмов и эвристических операторов.

Представляется несомненным, что мат. системы научного открытия, такие как программы KEKADA и BACON.3, могут приводить к впечатляющим рез-там. Следует заметить, однако, что эти системы являются индуктивными и требуют ввода исходных данных. Чтобы достичь творческих высот совр. теорет. физики, потребуются радикально новые вычислительные системы, к-рые выходят за пределы ограничений, накладываемых индуктивным методом.

См. также Теория алгоритмически-эвристических процессов, Каузальное мышление, Компьютерные программы, Общие системы, Системы и теории, Теоретическая психология

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *