Автоматизация науки. Концептуальный взгляд

Изучение проблематики цифровизации исследовательской деятельности. Оценка роли человека и искусственного интеллекта в информационном обществе. Внедрение компьютерных симуляций и машинного обучения. Выявление концептуальных границ автоматизации науки.

Рубрика Философия
Вид статья
Язык украинский
Дата добавления 15.09.2022
Размер файла 131,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://allbest.ru

Национальный исследовательский университет

«Высшая школа экономики»

Автоматизация науки. Концептуальный взгляд

Тимур Владимирович Хамдамов

Москва, Россия

Аннотация

Рассматривается проблематика автоматизации научно-исследовательской деятельности, в первую очередь с точки зрения эпистемического потенциала получения новых научных знаний без участия человека в качестве субъекта науки. Анализируются основания необходимости устранения субъекта в математике и науке. Оценивается роль человека в новых условиях ведения научной деятельности, в которой основная часть эпистемических категорий делегируется вычислительным алгоритмам в системе автоматизированной науки.

Ключевые слова: компьютерные симуляции, автоматизация науки, машинное обучение, искусственный интеллект, эпистемология, эвристика

Abstract

Automation science. a conceptual view

Timur V. Khamdamov

Higher School of Economics, Moscow, Russian Federation,

The problems of automation of research activities are considered, primarily from the perspective of the epistemic potential of gaining new scientific knowledge without the participation of a human as a subject of science. The bases of automation are considered from the standpoint of jointly working methodological approaches to cognition: empiricism and logical positivism. The author shows that scientific empiricism and positivism, the structural tissue in the intellectual Western thought, predetermine foundation of science automation. He analyzes the reasons for the need to eliminate the subject in mathematics and science through the hierarchy of a formal-axiomatic approach, a semantic view, and computational technologies. The current state of mathematics is shown as a confrontation between two opposite approaches: axiomatic and analytical. The axiomatic approach allows and stimulates the automation of science and the elimination of a human as a subject of science. The analytical approach defends the position of the fundamental impossibility of automating science. The author evaluates the role of a human in the new conditions of scientific activity, in which the main part of epistemic categories is delegated to computational algorithms in the system of automated science. These categories are based on Mieke Boon's list, which he compiled while investigating the impact of machine learning on the automation of science.

Keywords: computer simulations; automation of science; machine learning; artificial intelligence; epistemology; heuristics

Введение

Статья посвящена формированию концептуального подхода автоматизации науки посредством современных вычислительных технологий обработки больших данных (высокопроизводительные вычисления, машинное обучение, компьютерные симуляции) [1--6]. Такой подход релевантным образом принципиально оценивает: 1) основания автоматизации науки; 2) необходимость устранения субъекта; 3) роль человека в новых условиях функционирования автоматизированной науки.

Структура статьи сформирована тремя частями, каждая из которых представляет собой одно из вышеперечисленных оценочных суждений. В первой части разбирается возможность автоматизации науки с точки зрения эмпирического подхода к научной деятельности. Во второй части рассматривается логика развития неопозитивистского взгляда на науку, который в своем пределе подразумевает устранение человеческого фактора как процесс снятия главного барьера, препятствующего переходу науки на качественно новый этап развития. В третьей части выявляются те характеристики антропной природы, которые могут сохранить свою востребованность в условиях корректно функционирующей автоматизированной науки.

В статье проблематика автоматизации науки рассматривается в самых общих концептуальных границах, которые очерчены принятыми в современной философии науки методами и инструментами. Технологическим условиям автоматизации уделяется внимание только в ракурсе самых общих концептуальных воззрений в целях выявления основных принципов создания и дальнейшего развития автоматизированной науки.

1. Концептуальные основания автоматизации

Дискуссии по автоматизации науки довольно прочно вошли в список наиболее обсуждаемых тем в среде современных западных интеллектуалов. Общий оптимизм, разделяемый многими мыслителями, можно передать с помощью цитаты британо-американского ученого Криса Андерсона:

«Это мир, в котором огромные объемы данных и прикладная математика заменят все остальные инструменты. [...]. Долой все теории человеческого поведения, от лингвистики до социологии. Забудьте о таксономии, онтологии и психологии. Кто знает, почему люди делают то, что делают? [...]. При наличии достаточного количества данных цифры могут говорить сами за себя. [...]. Научный метод основан на проверяемых гипотезах. Эти модели по большей части представляют собой системы, визуализированные в умах ученых. Затем модели проверяются, и эксперименты подтверждают или опровергают теоретические модели того, как устроен мир. Так наука работала сотни лет. [...]. Ученые обучены признавать, что корреляция не является причинно-следственной связью, что нельзя делать выводы просто на основе корреляции между X и Y (это может быть просто совпадением). Вместо этого вы должны понимать лежащие в основе механизмы, которые их связывают. Получив модель, вы можете с уверенностью связать наборы данных. Данные без модели - это просто шум. [...]. Но, столкнувшись с массивными данными, этот подход к науке - гипотеза, модель, проверка - становится устаревшим» [3].

Такой взгляд на возможность автоматизации науки внешне опирается на инженерно-технологические достижения развитых стран Запада, которые могут обеспечить широкую доступность к большим массивам данных, наличие машинных вычислительных ресурсов, слаженно работающие программно-аппаратные комплексы, на базе которых могут быть реализованы алгоритмы связывания разрозненных данных в промежуточные и постоянные модели. Концептуально в самом общем описании этот взгляд выражается мысленным экспериментом В данном случае в качестве конкретного примера взят нарратив независимо друг от друга (Д.И. Менделеев и Б.П. Клапейрон) открытого закона связи давления, объема и температуры идеаль-ного газа в замкнутом сосуде. По этому же принципу может быть использован любой другой нарра-тив открытия закономерностей между экспериментальными данными.. Менделеев и Клапейрон ввели в вычислительную машину экспериментальные данные, которые они получили в ходе серии экспериментов с газами, - значения измеренного давления, объема и температуры газа в закрытом сосуде. Далее действующие в машине алгоритмы по нахождению зависимостей между данными и их связыванию для прогнозирования различных физических состояний выстраивают оптимально работающие модели. В этом случае фундаментально отпадает какая бы то ни было необходимость в уравнении Менделеева-Клапейрона, газовой постоянной, числе Авогадро и даже таких научно-концептуальных семантических связках, как, например, «молекула газа».

Для раскрытия смыслового наполнения этого концептуального взгляда обратимся к базовым постулатам эмпиризма См., например, определение эмпиризма в Новой философской энциклопедии (Электронная библиотека ИФ РАН): https://iphHb.m/Hbrary/coUection/newphilenc/document/HASH0163bfe2f7893900 cac1e763 как методологической и эпистемологической основы современной науки. К слову, влияние эмпиризма, начала которого были концептуально сформулированы еще в конце XVI в. Фрэнсисом Бэконом [7], на научную методологию предопределило все три этапа научного позитивизма в современной философии науки: 1) Конт, Спенсер, Милль; 2) Дюгем, Мах, Пуанкаре; 3) Венский кружок. Впоследствии развившийся в 1960-1970-х гг. на критике позитивизма новый концепт постпозитивизма (Кун, Поппер, Лакатос и др.) также в своей основе опирался на эмпиризм. Кризис эмпиризма в конце прошлого века привел к дискуссионному столкновению реалистов и конструктивистов [8], однако и в настоящее время методологически и фундаментально эмпиризм сохраняет прочную позицию в научной практике и теоретических изысканиях. На мой взгляд, именно эмпиризм и научный позитивизм структурно в ткани интеллектуальной западной мысли предопределяют принципиальные основания автоматизации науки. Чтобы удостовериться в корректности этого тезиса, обратимся к позитивизму Маха. Центральное место в позитивизме Маха занимает идея о том, что предметом научных теорий являются феноменальные закономерности. Теории характеризуют эти закономерности, которые должны фиксироваться через наблюдение, с теоретической точки зрения. Соответственно, теоретические термины в теориях и законах должны быть явно определены в терминах явлений и представляют собой не что иное, как символьные значения для таких феноменальных описаний. Также Мах утверждал, что нужно отвергать любые априорные (метафизические) элементы в ходе познания вещей [9].

Логический позитивизм добавил к такому позитивизму требование к научной теории быть аксиоматизированной в математической логике, которая определяет отношения между теоретическими терминами, обозначающими символьным образом явления, наблюдаемые в ходе экспериментов [10].

Таким образом, в позитивистской картине эмпиризма значение теоретических терминов, отношений между ними, коэффициентов, теорий и прочих семантических образований для связки данных не представляют собой принципиально незаменимых инструментов в научной методологии. Наоборот, в таком концептуальном представлении вычислительные алгоритмы по обработке и связыванию между собой данных будут справляться эффективнее как количественно (работа с большими массивами данных, высокая скорость обработки), так и качественно (машины не ограничены разными видами идеализации и упрощений, которые люди вынуждены применять для того, чтобы подгонять данные к общим математическим формализмам). Мике Бун, исследуя корни развития современного взгляда на автоматизацию науки, отмечает значимость работ П. Дюгема, написанных в традициях позитивизма и конвенционализма конца XIX - начала XX в. [11. С. 51-53]. Дюгем отрицает, что теории предоставляют причинные объяснения. Вместо этого Дюгем уверен, что существует система математических утверждений, выведенных из небольшого количества принципов, которые стремятся представить как можно проще, полнее и точнее набор экспериментальных данных. Экспериментальные данные с этой точки зрения - это упрощенные или идеализированные общие описания экспериментально созданных наблюдаемых явлений. Что касается самой природы вещей, или реальностей, скрытых за явлениями, описываемых экспериментальными данными, то теория абсолютно ничего не раскрывает. Бун также отмечает значимое влияние двух моделей объяснения Карла Густава Гемпеля, которые избегают метафизики причинности: дедуктивно- номологической (DN) и индуктивно-статистической (IS).

Эти модели описывают явления либо как «соответствующие», либо такие, которые «могут быть отнесены к» закономерностям и корреляциям, обнаруживаемым в ходе экспериментальных наблюдений и выражаемым через получаемые экспериментальные данные. Получается, что если рассматривать возможности автоматизации науки с точки зрения эмпиризма и логического позитивизма, то очевиден факт превосходства машинных вычислительных алгоритмов по обработке и связыванию экспериментальных данных над их менее совершенными антропными вариациями: построением моделей, выдвижением и обоснованием гипотез, разработкой и доказательством теорий. И даже несмотря на значимые кризисы эмпиризма и позитивизма в XX в., эти два методологических основания остаются наиболее влиятельными в современной науке, а значит, именно они в силу их вышеописанных характеристик продолжают укреплять вектор автоматизации научной деятельности как основной принцип развития науки на фоне все более доступной инженерно-технологической вычислительной инфраструктуры.

2. Необходимость устранения субъекта

Сама логика устранения субъекта встроена в исторический контекст ответа на возникший кризис математики после открытия неевклидовых геометрий, выхода из него и качественно нового развития математики в период конца XIX в. и первой трети XX в. В это время превалирующую роль в математике начинает играть формально-аксиоматический подход. Этот подход стимулирует развитие различных математических представлений о вычислениях, например таких, как «лямбда-исчисление» Черча (1932) [14] и «логическая вычислительная машина» Тьюринга (1936) [15]. Этот подход позволил изобрести вычислительные машины - от самых простых до современных сложных программно-аппаратных комплексов. Во всех этих машинах действует один принцип: перемещение знаков в соответствии с формальными правилами, предписывающими, как их записывать и сохранять в памяти без всяких ссылок на субъективный смысл.

Такая мыслительная повестка относительно науки хорошо выражается цитатой Гильберта - одного из основателей формально-аксиоматического подхода: «...объект научного мышления в целом подчиняется аксиоматическому методу и тем самым косвенно - математике. Продвигаясь к все более глубоким слоям аксиом мы достигаем все более глубокого понимания сути самого научного мышления» [16. С. 12].

Таким образом, если принять формально-аксиоматический подход как эффективно работающий метод, то суть математики - это вывод следствий из заданных аксиом. Тем самым получаем базовую функцию математики: вывод следствий посредством встроенных в ее структуру аксиом. А если в пределе свести суть математики к этой базовой функции, то получается, что вычислительные машины способны к автоматическому выводу следствий из заданных аксиом, в результате чего получаем два ключевых предположения: 1) машины могут заниматься математикой (такой тезис интерпретируется логиками-позитивистами как способность машин к мышлению); 2) люди фактически занимаются математикой, выводя следствия из заданных аксиом (в своем пределе тезис интерпретируется сторонниками формально-аксиоматического подхода как то, что процессы мышления человека можно свести к занятию математикой). В результате подобных рассуждений пробрасывается мостик к универсальности вычислений по отношению к мышлению: если люди действительно занимаются математикой, выводя следствия из данных аксиом, то человеческий мозг можно рассматривать как машину Тьюринга - наши мысли опираются на множество вычислительных процессов, общее воздействие которых распознается человеком в семантическом языковом поле. Это краткий набросок того, как обычно аргументируют так называемую вычислительную теорию разума (англ. Computational Theory of Mind) [17].

Многие полагают, что воззрения Гильберта и Тьюринга устарели, ведь даже еще при жизни они самостоятельно признали убедительные контраргументы Гёделя, который в двух теоремах о неполноте доказал тщетность амбиций Гильберта формализовать всю математику и доказать, что аксиоматизация всей математики непротиворечива [18]. Сам Тьюринг показал связь между неразрешимостью и невычислимостью, доказав, что в арифметике Пеано не существует алгоритма для определения истинности утверждений [15]. исследовательский концептуальный автоматизация наука

Но устарел ли формально-аксиоматический подход на самом деле? Скорее всего, что нет:

«хотя невозможно доказать полноту для систем, по крайней мере столь же мощных, как арифметика Пеано, тем не менее возможно доказать полноту для многих более слабых, но интересных систем, например логики первого порядка алгебр Клини, алгебры регулярных событий и различных логик, используемых в информатике» [19. С. 139]; «можно формализовать практически всю математику, которую „кто-либо использует“. Теория множеств Цермело-Френкеля в сочетании с логикой первого порядка дает удовлетворительный и общепринятый формализм практически для всей современной математики» [Там же]. Для того чтобы перейти к разбору тезиса об устранении субъекта из научной деятельности как необходимого условия развития современной математики посредством широкой доступности машинных вычислительных ресурсов, коснемся сначала семантического взгляда на научные теории . Этот взгляд направлен на сущностное объяснение структуры теорий с учетом их взаимосвязей с экспериментальными данными (рис. 1). То есть в целом это система гомеостатической, по сути, природы с прямыми и обратными связями между ожидаемыми результатами экспериментов, предсказанными теориями, и полученными результатами путем сведения взаимосвязей между абстрактными теориями, моделями и измеренными данными к семантическим отношениям между тремя видами структур: абстрактно-логическими, математическими и данными.

Рис. 1. Общее схематическое изображение принципа работы научных теорий согласно семантическому взгляду

Семантическая точка зрения утверждает, что теория - это набор предложений (обычно дедуктивно замкнутый) на формальном языке, таком как абстрактное исчисление, аксиоматическая система или набор общих законов (таких как уравнения движения Ньютона), который позволяет выводить логические следствия о конкретных типах физических систем (например, модели маятника). Результирующая модель представляет собой структуру, которая является интерпретацией (или реализацией) теории. И наоборот, теория представляет собой структуру модели. С этой точки зрения проверка адекватности теории требует только изоморфизма (или подобия) между моделью теории для определенного типа системы и результатами измерений, называемыми моделью данных. То есть семантическая точка зрения объясняет, как Так называемый семантический взгляд на теории (англ. semantic view of theories), которого в той или иной версии придерживаются разные исследователи, выражен и сформулирован в наиболее ярких работах таких философов, как Патрик Суппес [20], Бас ван Фраассен [21], Рональд Гьер [22, 23], Фредерик Суппе [24], Ньютон Карнейро Аффонсо да Коста и Стивен Френч [25].теория сопоставляется с измерениями. По версии Бас ван Фраассена, проверка того, является ли теория эмпирически адекватной, означает оценку (частичного) изоморфизма (математических) структур, предсказываемых теорией (моделями теории) и структурой в наборе измеренных данных (модели данных) [21].

Очевидно, что эмпирическая эпистемология, выраженная в семантическом взгляде, может быть сосредоточена в одном случае исключительно на теории и способах ее проверки. Тогда адекватность моделей данных не является приоритетным направлением исследовательских усилий. Обратная ситуация - в случае доминирующего акцента вычислительных технологий (машинное обучение, компьютерные симуляции, высокопроизводительные вычисления и т.д.): основное внимание уделяется моделям данных и способам проверки их адекватности. Теория в этом случае становится второстепенной и мало привлекающей внимание исследователей: если корректно подобранные и настроенные технологии могут генерировать адекватные модели данных на основе экспериментально извлекаемых данных, то необходимость в теориях оказывается не столь значимой. Семантический взгляд на теории поддерживает идею о том, что научное знание в форме теорий или моделей мало что добавляет к эмпирически адекватным и / или статистически обоснованным моделям данных для представления экспериментальных результатов. Поэтому такой взгляд поддерживает у исследователей убежденность в том, что научные знания и теории в их текущем виде станут больше не нужны, как и субъект в виде ученого. Теперь вернемся к формально-аксиоматическому подходу, но в ракурсе его противопоставления аналитическому как альтернативному с точки зрения математического метода, который применим для научной деятельности. Аналитический метод в общем виде формулируется еще в диалогах Платона «Менон», «Федон» и «Государство» и, по сути, представляет собой метод решения проблемы посредством поиска гипотезы, которая является достаточным условием для решения этой проблемы. Сама гипотеза получается из задачи некоторым недедуктивным способом и должна быть правдоподобной. Однако эта гипотеза, в свою очередь, является проблемой, которую необходимо решить. Ее решение также находится аналитическим методом. Более подробно про аналитический метод можно узнать в работах многих современных математиков и философов, например [26, 27]. Согласно аналитическому методу, мы расширяем знания посредством выработки гипотез, оценивания аргументов / причин в пользу или против каждой гипотезы и принятия или отвержения гипотез. Этот единый процесс цикличен и не имеет конечных пределов. Большинство критиков аксиоматического подхода уверены в том, что из-за беспрецедентного давления со стороны логических позитивистов в начале XX в. метод поиска новых гипотез был незаслуженно подвергнут остракизму, а одна из ключевых целей философии - предоставление методов для получения новых знаний - на фоне лингвистического поворота отодвинута на второй план.

Многие исследователи главным отличием алгоритмического метода от аналитического считают то, что в основу первого заложена дедукция, а второго - не исключительно дедукция. По этой причине считается, что алгоритмический метод может быть автоматизирован, в отличие от аналитического. Вычисление в принципе можно принять за форму дедукции. Так, Крипке считал, что «вычисление - это дедуктивный аргумент из конечного числа инструкций, а именно особая форма математического аргумента, где одному дается набор инструкций, а шаги в вычислении должны следовать дедуктивным образом из приведенных инструкций. Таким образом, вычисление - это просто еще один математический вывод, хотя и очень специализированный» [28. С. 80]. Важно, что можно формализировать как дедуктивные, так и недедуктивные правила вывода логических рассуждений, однако, по мнению противников автоматизации науки, проблема автоматизации в том, что не существует алгоритмического метода, чтобы корректно выбрать, какое именно правило вывода применять к посылке в целях получения желаемого вывода в данном конкретном контексте. Герд Гигеренцер в одной из своих работ утверждает, что хотя алгоритмы (т.е. формализованные правила) для научных выводов существуют, но не существует алгоритма «второго порядка» для выбора среди предлагаемых или существующих. Однако, несмотря на отсутствие алгоритма для выбора среди всех алгоритмов, по мнению Гигеренцера, тем не менее ученые каким-то образом выбирают нужные и делают это довольно успешно [29. С. 663]. Как ученые могут это делать? Гигеренцер находит ответ в социально-культурологической плоскости: «спорят друг с другом, аргументируют свой выбор» и «иногда даже убеждают друг друга» [Там же].

Согласно такому взгляду, поиск научных гипотез возможен исключительно в социально-культурном контексте, в общности людей, занимающихся научной деятельностью. Несомненно, что подобный взгляд радикализирует позицию, распространяя свои предположения и на дедуктивные способы вывода: автоматизация науки в принципе оказывается невозможной, потому что нет ни единого способа вывода логических рассуждений, включая дедуктивный, который мог бы миновать социально-культурный контекст.

Получается, что если рассматривать фундаментальные условия автоматизации науки, то она становятся принципиально возможной только в случае аксиоматического подхода к математике, который в целом подразумевает использование дедуктивных правил вывода. Помимо этого, по мнению Фабио Стерпетти [30. С. 131], автоматизация науки согласно аксиоматическому подходу получается только в одном из двух случаев:

1) математика эпистемически превосходит естественные науки, поэтому должен быть способ доказательства непротиворечивости аксиом некоторыми недедуктивными средствами, а это подразумевает, что человеческий разум превосходит вычислительные машины (аргументы Лукаса и Пенроуза) [31, 32] - автоматизация науки невозможна;

2) математика эпистемически не превосходит естественные науки, поэтому не существует способов доказательств непротиворечивости аксиом какими-либо недедуктивными средствами, а это означает, что человеческий разум не превосходит вычислительные машины (аргумент Уильямсона) [33] - автоматизация науки возможна.

Таким образом, получаем три основных иерархически зависимых структурных элемента концепции автоматизации науки (рис. 2) и функцию каждого из них в необходимом устранении субъекта:

1) устранение субъекта является целью развития формально-аксиоматического подхода;

2) семантический взгляд обеспечивает принципиальную основу для устранения субъекта из науки;

3) вычислительные технологии обеспечивают инструментально-инфраструктурную основу для применения алгоритмов, работающих согласно аксиоматическому подходу.

Рис. 2. Иерархическая схема структуры концепции автоматизации науки

3. Роль человека в условиях автоматизированной науки

В оценке ситуации, при которой можно будет устранить субъекта из науки посредством ее автоматизации, значимым направлением для размышлений является новый статус человека в научной деятельности. Поэтому в заключительной части я проведу анализ распределения эпистемических задач между людьми и машинами. Анализ позволит рассмотреть очертания влияния человека на автоматизированную науку.

В качестве основы я возьму список категорий эпистемических задач, которые выделил Мике Бун [11. С. 48-49], анализируя те когнитивные способности человека, которые успешно могут быть заменены одним из видов вычислительных технологий - машинным обучением.

1. Распознавание (матчинг). Технология машинного обучения способна имитировать человеческую способность распознавать соответствующие сходства между визуальными изображениями или структурные сходства в графических изображениях (например, автоматическое распознавание лиц, распознавание отпечатков пальцев, сопоставление профилей ДНК).

2. Интерпретация (классификация). Технология машинного обучения способна взять на себя человеческую способность распознавать или интерпретировать изображение как объект определенного типа или относить его к определенной концепции (например, «это дуб», «это автомобиль марки Z»).

3. Прогнозирование (диагностирование). Технология машинного обучения способна на основе ограниченной информации о конкретной цели сделать вывод, что «она, вероятно, относится к определенной категории и, следовательно, вероятно, также будет иметь несколько дополнительных свойств» (например, как в персонализированной рекламе покупателей, оценке финансовых рисков клиентов и в медицинской диагностике пациентов) [Там же].

4. Структурирование. Технологии машинного обучения могут находить закономерности, корреляции и причинно-следственные связи в данных и на полученной информационной базе структурировать их.

5. Обнаружение. Структуры, связи и отношения, найденные в массивах данных с помощью машинного обучения, могут указывать на конкретные явления, что очень похоже на то, как люди делают выводы из наблюдений, причинно-следственных связей или найденных закономерностей относительно существующих явлений.

6. Вычисление.

7. Моделирование (симуляция).

8. Интеграция.

Несмотря на то, что Бун опирается на технологии машинного обучения при формулировании основных категорий, на самом деле только первые пять пунктов списка можно отнести к таким технологиям. Остальные три категории (вычисление, моделирование и интеграция) могут быть реализованы только с помощью технологий высокопроизводительных вычислений и компьютерных симуляций. Категория интеграции как объединяющая все другие категории из списка Буна требует сложно организованной инфраструктуры, которая включает в себя все известные на сегодняшний день вычислительные технологии, в том числе облачные и туманные вычисления, интернет вещей, высокоскоростную связь и т.д. К тому же, если речь идет об автоматизированной науке, все категории должны представлять собой систему с гомеостатическими характеристиками и эффективно работающими независимыми обратными связями.

В этом случае можно будет реализовать систему, которая для корректной работы будет нуждаться только в непрерывно поступающих экспериментальных данных. По мере накопления базы экспериментальных данных потребность в притоке новых данных из внешней среды будет снижаться, так как типовые эксперименты такая система сможет проводить с помощью симуляционных сред, разработанных специально для проведения экспериментов. Так как подобные симуляции не будут жестко детерминированы физически обусловленными законами, накладываемыми на антропную природу (например, восприятие течения времени, трехмерного пространства и т.д.), то эксперименты в такой системе будут проходить гораздо быстрее с возможностью их непрерывного проведения с учетом вновь добавляемых экспериментальных данных, в том числе эпистемически непрозрачных для человека.

Если мысленно допустить существование такой рабочей системы, то по всем вышевыделенным категориям роль человека оказывается снижена максимально вплоть до ликвидации всякого его влияния на работу системы. Разработав гомеостатическим образом работающую инфраструктуру автоматизированной науки, человек должен будет выйти за ее пределы, чтобы продолжить участвовать в развитии научной деятельности. То есть человек должен сосредоточиться на тех направлениях научной деятельности, которые не могут быть включены в сферу ее автоматизированной части: философии, этике, культуре.

Нужно понимать, что те эпистемические категории, которые могут быть заменены вычислительными алгоритмами, базово имитируют, но не воспроизводят их человеческий оригинал. По этой причине в системе автоматизированной науки не могут быть получены комплексные когнитивные характеристики человека, например сознание.

Помимо этого, пока не представляется возможным воспроизведение на базе вычислительных алгоритмов таких значимых для науки социально-исторических параметров, как, например, культура. А значит, прерогатива целеполагания развития науки, оптимизация ее методологического инструментария, включая разработку принципиально иных технологических новшеств для повышения эффективности автоматизированной науки (например, квантовые вычисления), останется за человеком. Область человеческого также должна включать все возможные этические нарративы, источником которых является многообразие социокультурных форм, существующих у человечества. С этой точки зрения все результаты автоматизированной науки должны быть направлены на поли- культурное социальное развитие и быть в рамках этических принципов, соответствующих интересам как отдельно взятых культур, так и всего человечества.

Получается, что роль человека в новых условиях ведения научной деятельности, в которой основные эпистемические категории делегируются автоматизированной науке, будет ориентирована на следующие функции:

1) общая методология познания;

2) целеполагание науки;

3) ценностно-этический императив.

Заключение

Результатом данной статьи стал первичный концептуальный анализ принципиальной возможности автоматизации науки, неизбежности делегирования значительного объема работ вычислительным алгоритмам и оценки вероятной роли человека в научной деятельности при новых условиях функционирования инфраструктурной системы автоматизированной науки.

В первой части было показано, каким образом совместное влияние эмпиризма и научного позитивизма на фоне широкодоступных вычислительных технологий создает неизбежные условия для появления концептуальных предпосылок к организации автоматизированной науки.

Во второй части показаны концептуальные основания в современной математике и науке, стимулирующие нарратив устранения субъекта. В математике существование таких оснований показано через условное противостояние двух противоположных подходов: формально-аксиоматического и аналитического.

Первый ставит перед собой принципиальную цель устранения субъекта из математики (а значит, согласно такому подходу, и науки).

Второй отсеивает противоположную позицию в силу обнаруживаемых им принципиальных противоречий в формализации методов познания, в частности выдвижения гипотез для решения математических задач. Здесь же показан семантический взгляд на научное познание, который формирует основания для автоматизации и демонстрирует отсутствие необходимости в теориях и гипотезах при наличии необходимого количества экспериментальных данных. Выстраивается концептуальная иерархия автоматизации науки: формально-аксиоматический подход - семантический взгляд - вычислительные технологии. Каждое из этих оснований функционально закрывает свою нишу: математика - наука - технологии.

В третьей части выявляется роль человека в новых условиях научной деятельности, которые выражены передачей значительной части эпистемических категорий познания вычислительным алгоритмам. Анализ проводится на основе списка категорий, составленных Мике Буном. Обнаруживается гомеостатическая природа автоматической науки, использующей алгоритмы по каждой из категорий. В случае реализации такой системы необходимость в человеке как субъекте внутри нее фактически пропадает. Но вместе с тем возрастает запрос на те когнитивные и социально-культурные уникальные свойства человека, которые не представляется возможным формализовать и включить в систему автоматизированной науки. Именно в таких областях человеку предстоит увеличить свое присутствие в целях развития науки: общая методология познания (философия), целеполагание науки (культура), ценностно-этический императив (этика).

Список источников

1. Allen J.F. In Silico Veritas. Data-Mining and Automated Discovery: The Truth Is in There // EMBO Reports. 2001. Vol. 2. P. 542-544.

2. Colton S. Automated Theory Formation in Pure Mathematics. London : Springer. 2002.

3. Anderson C. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete // Wired Magazine. 2008. 23 June.

4. King R.D., Rowland J, Oliver S.G., Young M. et al. The Automation of Science // Science. 2009. Vol. 324. P. 85-89.

5. Sparkes A., Aubrey W., Byrne E. et al. Towards Robot Scientists for Autonomous Scientific Discovery // Automated Experimentation. 2010. Vol. 2 (1).

6. Mazzocchi F. Could Big Data Be the End of Theory in Science? A Few Remarks on the Epistemology of Data-Driven Science // EMBO Reports. 2015. Vol. 16. P. 1250-1255.

7. Bacon F. The New Organon // The Works of Francis Bacon. London : Longman, 1857-1870 // Bartleby.com. 2010. URL: www.bartleby.com/242/

8. ChurchlandP.M., Hooker C.A. Images of Science.: Essays on realism and empiricism with a reply from Bas C. van Fraassen. The University of Chicago Press, 1985.

9. Mach E. Popular Scientific Lectures / trans. T.J. McCormack. La Salle : Open Court, 1986.

10. Carnap R. Logical Foundations of the Unity of Science // International Encyclopedia of Unified Science. University of Chicago Press, 1938. Vol. 1, № 1. P. 42-62.

11. Boon M. How Scientists Are Brought Back into Science - The Error of Empiricism // A Critical Reflection on Automated Science, Human Perspectives in Health Sciences and Technology / eds. M. Bertolaso, F. Sterpetti. Springer Nature Switzerland AG, 2020. 1. P. 43-66.

12. Duhem P. The Aim and Structure of Physical Theory. Princeton : Princeton University Press, 1954 [1914].

13. Duhem P. To Save the Phenomena: An Essay on the Idea of Physical Theory from Plato to Galileo / trans. E. Dolland and C. Maschler. Chicago : University of Chicago Press, 2015 [1908].

14. Church A. The Calculi of Lambda-Conversion. Princeton : Princeton University Press, 1941.

15. Turing A.M. On Computable Numbers, with an Application to the Entscheidungsproblem // Proceedings of the London Mathematical Society 2. 1936 (publ. 1937). Vol. 42. P. 230-265.

16. HilbertD. Axiomatic Thinking // Philosophia Mathematica. 1970. Ser. 1. Vol. 7. P. 1-12.

17. Rescorla M. The Computational Theory of Mind // The Stanford Encyclopedia of Philosophy / ed. E.N. Zalta. 2017. URL: https://plato.stanford.edu/archives/spr2017/entries/computational-mind/

18. Raatikainen P. Gцdel's Incompleteness Theorems // The Stanford Encyclopedia of Philosophy / ed. E.N. Zalta. 2018. URL: https://plato.stanford.edu/archives/fall2018/entries/goedel- incompleteness/

19. Calude C.S., Thompson D. Incompleteness, Undecidability and Automated Proofs // Computer Algebra in Scientific Computing. CASC 2016 / ed. V. Gerdt et al. P. 134-155.

20. Suppes P. A Comparison of the Meaning and Uses of Models in Mathematics and the Empirical Sciences // Synthese. 1960. Vol. 12. P. 287-301.

21. Van Fraassen B.C. The Scientific Image. Oxford : Clarendon Press, 1980.

22. GiereR.N. Explaining Science // Chicago / London : The University of Chicago Press, 1988.

23. Giere R.N. An Agent-Based Conception of Models and Scientific Representation // Synthese.

2009. Vol. 172 (2). P. 269-281.

24. Suppe F. The Semantic Conception of Theories and Scientific Realism. Urbana / Chicago : University of Illinois Press, 1989.

25. Da Costa N.C.A., French S. Science and Partial Truth. A Unitary Approach to Models and Scientific Reasoning. Oxford : Oxford University Press, 2003.

26. Cellucci C. Rethinking Logic. Dordrecht : Springer, 2013.

27. Cellucci C. Rethinking Knowledge. Dordrecht : Springer, 2017.

28. Kripke S.A. The Church-Turing `Thesis' as a Special Corollary of Gцdel's Completeness Theorem // Computability / ed. B.J. Copeland, C.J. Posy, O. Shagrir. Cambridge, MA : MIT Press, 2013. P. 77-104.

29. Gigerenzer G. Strong AI and the Problem of “Second-Order” Algorithms // Behavioral and Brain Sciences. 1990. Vol. 13. P. 663-664.

30. Sterpetti F. Mathematical Proofs and Scientific Discovery // A Critical Reflection on Automated Science, Human Perspectives in Health Sciences and Technology / eds. M. Bertolaso, F. Sterpetti. Springer Nature Switzerland AG, 2020. 1. P. 101-136.

31. Lucas J.R. Minds, Machines, and Gцdel // Philosophy. 1961. Vol. 36. P. 112-127.

32. PenroseR. The Emperor's New Mind. Oxford : Oxford University Press, 1989.

33. Williamson T. Absolute Provability and Safe Knowledge of Axioms // Gцdel's Disjunction / ed. L. Horsten and P. Welch, Oxford : Oxford University Press, 2016. P. 243-253.

References

1. Allen, J.F. (2001) In Silico Veritas. Data-Mining and Automated Discovery: The Truth Is in There. EMBOReports. 2. pp. 542-544.

2. Colton, S. (2002) Automated Theory Formation in Pure Mathematics. London: Springer.

3. Anderson, C. (2008) The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired Magazine. 23rd June.

4. King, R.D., Rowland, J., Oliver, S.G., Young, M. et al. (2009) The Automation of Science. Science. 324. pp. 85-89.

5. Sparkes, A., Aubrey, W., Byrne, E. et al. (2010) Towards Robot Scientists for Autonomous Scientific Discovery. Automated Experimentation. 2(1). DOI: 10.1186/1759-4499-2-1

6. Mazzocchi, F. (2015) Could Big Data Be the End of Theory in Science? A Few Remarks on the Epistemology of Data-Driven Science. EMBO Reports. 16. pp. 1250-1255. DOI: 15252/embr.201541001

7. Bacon, F. (2010) The New Organon. In: Spedding, J., Ellis, R.L. & Heath, D.D. (eds) The Works of Francis Bacon. London: Longman. [Online] Available from: www.bartleby.com/242/

8. Churchland, P.M. & Hooker, C.A. (1985) Images of Science.: Essays on realism and empiricism with a reply from Bas C. van Fraassen. The University of Chicago Press.

9. Mach, E. (1986) Popular Scientific Lectures. Translated by T.J. McCormack. La Salle: Open Court.

10. Carnap, R. (1938) Logical Foundations of the Unity of Science. In: International Encyclopedia of Unified Science. 1(1). University of Chicago Press. pp. 42-62.

11. Boon, M. (2020) How Scientists Are Brought Back into Science - The Error of Empiricism. In: Bertolaso, M. & Sterpetti, F. (eds) A Critical Reflection on Automated Science, Human Perspectives in Health Sciences and Technology. Springer Nature Switzerland AG. pp. 43-66.

12. Duhem, P. (1954) The Aim and Structure of Physical Theory. Princeton: Princeton University Press.

13. Duhem, P. (2015) To Save the Phenomena: An Essay on the Idea of Physical Theory from Plato to Galileo. Translated by E. Dolland, C. Maschler. Chicago: University of Chicago Press.

14. Church, A. (1941) The Calculi of Lambda-Conversion. Princeton: Princeton University Press.

15. Turing, A.M. (1937) On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society. 2(42). pp. 230-265.

16. Hilbert, D. (1970) Axiomatic Thinking. Philosophia Mathematica. 1(7). pp. 1-12.

17. Rescorla, M. (2017) The Computational Theory of Mind. In: Zalta, E.N. (ed.) The Stanford Encyclopedia of Philosophy. [Online] Available from: https://plato.stanford.edu/archives/spr2017/ent- ries/computational-mind/

18. Raatikainen, P. (2018) Gцdel's Incompleteness Theorems. In: Zalta, E.N. (ed.) The Stanford Encyclopedia of Philosophy. [Online] Available from: https://plato.stanford.edu/archives/fall2018/ent- ries/goedel-incompleteness/

19. Calude, C.S. & Thompson, D. (2016) Incompleteness, Undecidability and Automated Proofs. In: Gerdt, V. et al. (eds) Computer Algebra in Scientific Computing. CASC. pp. 134-155.

20. Suppes, P. (1960) A Comparison of the Meaning and Uses of Models in Mathematics and the Empirical Sciences. Synthese. 12. pp. 287-301. DOI: 10.1007/BF00485107

21. Van Fraassen, B.C. (1980) The Scientific Image. Oxford: Clarendon Press.

22. Giere, R.N. (1988) Explaining Science. Chicago; London: The University of Chicago Press.

23. Giere, R.N. (2010) An Agent-Based Conception of Models and Scientific Representation. Synthese. 172(2). pp. 269-281. DOI: m.m07/sn229-009-9506-z

24. Suppe, F. (1989) The Semantic Conception of Theories and Scientific Realism. Urbana; Chicago: University of Illinois Press.

25. Da Costa, N.C.A. & French, S. (2003) Science and Partial Truth. A Unitary Approach to Models and Scientific Reasoning. Oxford: Oxford University Press.

26. Cellucci, C. (2013) Rethinking Logic. Dordrecht: Springer.

27. Cellucci, C. 2017) Rethinking Knowledge. Dordrecht: Springer.

28. Kripke, S.A. (2013) The Church-Turing `Thesis' as a Special Corollary of Gцdel's Completeness Theorem. In: Copeland, B.J., Posy, C.J. & Shagrir, O. (eds) Computability. Cambridge, MA: MIT Press. pp. 77-104.

29. Gigerenzer, G. (1990) Strong AI and the Problem of “Second-Order” Algorithms. Behavioral and Brain Sciences. 13. pp. 663-664. DOI: 10.1017/S0140525X0008078X

30. Sterpetti, F. (2020) Mathematical Proofs and Scientific Discovery. In: Bertolaso, M. & Sterpetti, F. (eds) A Critical Reflection on Automated Science, Human Perspectives in Health Sciences and Technology. Springer Nature Switzerland AG. pp. 101-136.

31. Lucas, J.R. (1961) Minds, Machines, and Gцdel. Philosophy. 36. pp. 112-127.

32. Penrose, R. (1989) The Emperor's New Mind. Oxford: Oxford University Press.

33. Williamson, T. (2016) Absolute Provability and Safe Knowledge of Axioms . In: Horsten, L. & Welch, P. (eds) Gцdel's Disjunction. Oxford: Oxford University Press. pp. 243-253.

Размещено на Allbest.ru


Подобные документы

  • Понятие и содержание науки как специфической деятельности человека. Формы и направления исследовательской работы студентов. Возникновение, становление и развитие науки, концепции данного процесса. Отличительные особенности современной науки, интеграция.

    тест [18,9 K], добавлен 10.12.2011

  • Анализ влияния искусственного интеллекта и искусственной жизни на философские проблемы человеческого мышления. Исследования искусственного интеллекта. Обзор вопросов теоретической доказуемости возможности или невозможности искусственного интеллекта.

    реферат [58,5 K], добавлен 08.04.2015

  • Теоретическое понятие науки. Некоторые аспекты изучения науки в древние времена. Этапы развития научной мысли в средневековые времена. Связь науки и философии. Современное состояние науки, ее основные концепции. Роль науки в современном обществе.

    реферат [33,7 K], добавлен 07.11.2007

  • Основные признаки науки, отличающие ее от других видов материальной и духовной деятельности человека. Отсутствие взаимодействия науки и практики и его пагубное влияние на развитие античной науки. Философская мысль - первооснова науки античной эпохи.

    реферат [43,0 K], добавлен 01.11.2011

  • Процессы дифференциации и интеграции научного знания. Научная революция как закономерность развития науки. Философское изучение науки как социальной системы. Структура науки в контексте философского анализа. Элементы логической структуры науки.

    реферат [25,6 K], добавлен 07.10.2010

  • Философский анализ науки как специфическая система знания. Общие закономерности развития науки, её генезис и история, структура, уровни и методология научного исследования, актуальные проблемы философии науки, роль науки в жизни человека и общества.

    учебное пособие [524,5 K], добавлен 05.04.2008

  • Четыре великих фундаментальных признака человека. Человек в информационном обществе. Предметом философии является всеобщие свойства и связи (отношения) действительности - природы, общества, человека. Чувственное восприятие человеком конкретных событий.

    реферат [27,2 K], добавлен 21.01.2009

  • Особенности кризиса науки как социального института. Определение места науки в современном обществе, проблемы ее отчуждения от социума. Характеристика интеллектуальной элиты. Вклад ученых в исследовательское развитие всех сфер человеческой деятельности.

    контрольная работа [18,6 K], добавлен 12.01.2014

  • История развития науки. Появление мировоззренческих задач, геометрии у древних египтян и шумерской астрономии. Формирование философии. Принцип всеобщей относительности Эйнштейна. Воздействие науки на мировосприятие и ее роль в современном обществе.

    эссе [9,4 K], добавлен 13.01.2014

  • Изучение правил и проблематики "универсальной математики" Р. Декарта как единого научного метода построения системы науки с целью обеспечения человеку господства над природой. Доказательство существования Бога и определение его роли в философии ученого.

    контрольная работа [33,1 K], добавлен 23.03.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.