Искусственный интеллект (ИИ) занял центральное место в фундаментальной науке. Пять лауреатов Нобелевской премии 2024 года по химии и физике имели общую нить: искусственный интеллект.
Действительно, многие ученые, в том числе члены Нобелевских комитетов, прославляют ИИ как силу, преобразующую науку.
По словам одного из лауреатов, потенциал ИИ для ускорения научных открытий делает его «одной из самых преобразующих технологий в истории человечества». Но что на самом деле будет означать эта трансформация для науки?
ИИ обещает помочь ученым делать больше, быстрее и с меньшими затратами. Но это также порождает множество новых проблем – и если ученые торопятся с внедрением ИИ, они рискуют превратить науку в нечто, что ускользает от общественного понимания и доверия и не отвечает потребностям общества.

Иллюзии понимания
Эксперты уже выявили как минимум три иллюзии, которые могут заманить в ловушку исследователей, использующих ИИ.
Первая – это «иллюзия объяснительной глубины». Тот факт, что модель ИИ превосходно предсказывает явление (например, AlphaFold, получившая Нобелевскую премию по химии за предсказания белковых структур), не означает, что она может его точно объяснить. Исследования в области нейробиологии уже показали, что модели ИИ, разработанные для оптимизированного прогнозирования, могут привести к ошибочным выводам о лежащих в основе нейробиологических механизмах.
Во-вторых, это «иллюзия исследовательской широты». Ученые могут думать, что в своих исследовательских исследованиях они исследуют все проверяемые гипотезы, хотя на самом деле они рассматривают лишь ограниченный набор гипотез, которые можно проверить с помощью ИИ.
Наконец, «иллюзия объективности». Ученые могут полагать, что модели ИИ свободны от предвзятости или что они могут объяснить все возможные человеческие предубеждения. Однако в действительности все модели ИИ неизбежно отражают предвзятость, присутствующую в их обучающих данных, и намерения их разработчиков.
Дешевле и быстрее наука
Одной из основных причин растущей привлекательности ИИ в науке является его способность давать больше результатов, быстрее и с гораздо меньшими затратами.
Крайним примером такого подхода является машина AI Scientist, недавно разработанная Sakana AI Labs. Видение компании состоит в том, чтобы разработать «полностью управляемую искусственным интеллектом систему для автоматизированных научных открытий», где каждую идею можно превратить в полноценную исследовательскую работу всего за 15 долларов США – хотя критики говорят, что система производит «бесконечную научную помойку».
Действительно ли мы хотим будущего, в котором исследовательские работы можно будет создавать всего за несколько кликов, просто чтобы «ускорить» производство науки? Это рискует наводнить научную экосистему статьями, не имеющими смысла и ценности, что приведет к еще большему напряжению и без того перегруженной системы рецензирования.
Мы можем оказаться в мире, где наука, какой мы ее когда-то знали, погребена под шумом контента, созданного искусственным интеллектом.
Рост использования ИИ в науке происходит в то время, когда общественное доверие к науке и ученым все еще довольно велико, но мы не можем воспринимать это как нечто само собой разумеющееся. Доверие сложно и хрупко.
Как мы узнали во время пандемии COVID-19, призывы «доверять науке» могут оказаться неэффективными, поскольку научные данные и вычислительные модели часто оспариваются, являются неполными или открыты для различных интерпретаций.
Однако мир сталкивается с множеством проблем, таких как изменение климата, утрата биоразнообразия и социальное неравенство, которые требуют государственной политики, разработанной на основе экспертных оценок. Это суждение также должно быть чувствительным к конкретным ситуациям, собирая данные из различных дисциплин и жизненного опыта, которые необходимо интерпретировать через призму местной культуры и ценностей.

Как утверждается в отчете Международного научного совета, опубликованном в прошлом году, наука должна учитывать нюансы и контекст, чтобы восстановить общественное доверие. Если позволить ИИ формировать будущее науки, это может подорвать с таким трудом достигнутый прогресс в этой области.
Если мы позволим ИИ возглавить научные исследования, мы рискуем создать монокультуру знаний, в которой приоритет отдается тем вопросам, методам, точкам зрения и экспертам, которые лучше всего подходят для ИИ.
Это может отдалить нас от трансдисциплинарного подхода, необходимого для ответственного ИИ, а также от детальных публичных рассуждений и диалога, необходимых для решения наших социальных и экологических проблем.
Новый социальный контракт для науки
С началом XXI века некоторые утверждали, что у ученых был обновленный общественный договор, согласно которому ученые сосредоточивают свои таланты на самых актуальных проблемах нашего времени в обмен на государственное финансирование. Цель состоит в том, чтобы помочь обществу двигаться к более устойчивой биосфере – такой, которая является экологически безопасной, экономически жизнеспособной и социально справедливой.
Развитие искусственного интеллекта дает ученым возможность не только выполнить свои обязанности, но и оживить сам контракт. Однако научным сообществам сначала необходимо будет решить некоторые важные вопросы об использовании ИИ.
Например, является ли использование ИИ в науке своего рода «аутсорсингом», который может поставить под угрозу целостность финансируемой государством работы? Как с этим справиться?
А как насчет растущего воздействия ИИ на окружающую среду? И как исследователи могут соответствовать ожиданиям общества, интегрируя ИИ в исследовательский процесс?
Идея преобразования науки с помощью ИИ без предварительного заключения этого общественного договора рискует поставить телегу впереди лошади.
Если позволить ИИ формировать наши исследовательские приоритеты без участия различных мнений и дисциплин, это может привести к несоответствию тому, что действительно нужно обществу, и привести к плохому распределению ресурсов.

Наука должна приносить пользу обществу в целом. Ученым необходимо участвовать в реальных дискуссиях о будущем ИИ внутри своего сообщества практиков и с заинтересованными сторонами в области исследований. Эти дискуссии должны коснуться аспектов этого обновленного социального контракта, отражающего общие цели и ценности.
Пришло время активно исследовать различные варианты будущего, которые ИИ для науки открывает или блокирует, и установить необходимые стандарты и рекомендации для ответственного использования его потенциала.
Эхсан Набави — старший преподаватель кафедры технологий и общества Лаборатории ответственных инноваций Австралийского национального университета. Эта статья переиздана с Разговор.
Опубликовано – 28 октября 2024 г., 10:15 по восточному стандартному времени.
Leave a Reply