Hi!
本日はAI for Science についてです。
新入生のみなさん、入学おめでとうございます。本日ここに集まったみなさんは、大学院生活のスタート地点に立っています。東京大学の大学院では、専門の知識を学ぶことも大事ですが、それ以上に大切なのは「学び方」を身につけることです。AIの普及など情報技術の大きな革新が始まりつつある社会において、私たちはどう学び、どのように考え、いかに行動していくべきか。それが問われています。(中略) たとえば「将来どんな仕事がAIに取って代わられてしまうか」をめぐる議論は、私たちの未来に深くかかわっています。(中略)これまで私たちは、カウンセリングなどの心の仕事や、芸術や科学のように創造的な活動を「ヒトらしい」特質を反映するものであり、代替不可能な聖域だと信じてきました。しかしAIと向きあう現在、こうした人間性をめぐる古典的な理解を再検討する必要がでてきたといえます。
東京大学の学部の入学式での式辞が盛り上がる中、今回はその大学院の方の式辞の一部を取り上げてみました(藤井 2024)。現在のOpen AIがChat GPT-3を発表して以来、LLMによるAIの広がりは私たちの想像を超えてきました。そんなAIが普及してきた中でどのように研究するのか、そんなことが大学の中でも問われています。ということで、今回はScience のなかで使われるAIについてお話ししたいと思います。
AI for Science
AIをScience、科学、の発展のために使おうとする取り組みはLLMを用いた生成AIの爆発的な普及以前から存在しました。例えば、Materials Informaticsなどはその一つでしょう。*1そしてその爆発的な普及の後に生まれた流れとして科学研究向けの生成AIモデルの普及を行おうとする流れです。さて、最近の日本の流れを見てみましょう。
2024年4月5日、理化学研究所とアルゴンヌ国立研究所はAI for Science に関する覚書を締結しました。下記の部分での連携を目指しています(RIKEN 2024)。
AI for Scienceに関する科学技術研究情報の相互利用
学習や開発したモデルの検証等に用いる研究用データセットの相互利用
研究用計算機資源の相互利用
研究およびロードマップ作成に関する協力
AI for Scienceに携わる研究者およびスタッフの交流
講演会、共同セミナー、シンポジウムの共同開催
AI for Scienceに携わる学生(特に博士課程学生)の交流
具体的にどのようなことを目標にするのかをというのを見ると、
AI for Scienceの目的のもと、多様な科学研究データを活用した基盤モデルの追加学習などをすることで、特定科学分野(ドメイン)指向の科学研究向けAI基盤モデルの研究開発を推進します。ライフサイエンス、物質・材料などのさまざまな科学分野を対象としたアプリケーションの研究開発に取り組むとともに、そのためのデータ生成、関連する実験やシミュレーションの自動化・高速化技術開発、基盤モデルの性能評価、システムソフトウェア開発、データ管理技術やコンピューティングシステム運用技術の開発などの基盤技術の研究開発を進めます
とされています。ただし、締結国であるアメリカはこのAI for Science に関しては世界的にも先んじています。特にアメリカは上記アルゴンヌ国立研究所の属するエネルギー省*2は、2023年に出された"Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence"という大統領令を基に、AI for Science の新規プロジェクトを立てています。彼らは特に下記のことについて主導すると述べられています(Department of Energy 2023)
AIのリスクを理解し軽減するためのツールの開発:DOEは、核、不拡散、生物、化学、重要インフラ、エネルギーセキュリティの脅威や危険をもたらす可能性のあるAIの出力を評価し、それらのリスクを軽減するガードレールをモデル化するツールを開発いたします。
他の機関、民間企業、学術機関との協力: DOEは、科学、エネルギー、国家安全保障の新しいアプリケーションをサポートする基盤モデルを構築するために、省の計算能力とAIテストベッドを活用し、政府内外のパートナーと協力いたします。
新しい研究者の育成:AIの人材需要の高まりに対応するため、DOEはNational Science Foundation(NSF)と協力し、2025年までに500人の新しい研究者を育成することを目標とする科学者向けの研修プログラムのパイロット事業を立ち上げます。
DOE内のAI活動の調整: 当省は、17の国立研究所を含む各プログラムにおけるAIやその他の重要な新興技術の開発を調整する担当課を設置いたします。
そもそもの考え方としてアメリカ国内ではAI for Scienceが核などの技術に紐づいており、国家安全保障と一体不可分であるというのが根源的にも現れているのがアメリカのAI for Scienceの姿勢であるとわかります。AI for Science のなかのAlignmentはどのように行われるべきなのか、これについては次回以降で議論していきたいと思います。
EUでの直近の取り組みについて
アメリカや日本の流れは一旦置いておきましょう。次はEUをのぞいてみます。Matthews & Greenacre(2024)によれば、EUの内の科学アドバイザーを務める専門家がEUに対して”CERN for AI”*3を科学者がよりAIを開発するために必要であると提案したと報道しました* 4。これはAI for Science の流れの中で、AI for Science のための研究開発機関をEUに作り出そうというものでした。
この意見にはいくつかの批判点があります。まずはその範囲が狭いという点。AI for の後にはさまざまな言葉(ex 製造、行政 etc)が入ることができるため、Scienceだけで研究所を作るには少し範囲が狭すぎます。そして、EUが複数国の連合体であるために、その拠点が非常に散らばってしまう点です。
しかしながら上記に関しては、このような反論があります。例えば適応範囲の狭さに対しての反論として、「ディナープランを作ることはそのプランを(LLMなどを使って)生成するエネルギーに値しないのでは」という意見もありました。また後者の分散的な機構に関しては、中央に大きな施設やインフラを作るコストを考えると現在の様々な機関が関わるシステムの方が実現可能性が高いとも述べています。
それ以上に大きな問題としては、予算の問題があります。これは、明確な予算案がCERN for AIの提案にはなかったものの、その予算としては6年間で1000億ユーロほど必要になるとされています。現在はHorizon Europeの一部として行うのが一番可能性が高いのではないかとされています。
The efforts should focus not only on physical and life sciences, but also on humanities and social sciences, and they should ensure that AI systems are aligned with “European values”, the scientific advisors say.
科学といってもその分野は広い上に、ヨーロッパではデータの利用に関して非常に多くの議論があります。このような中で、EUはアメリカや日本などの国際社会でAI for Science を実行するのかは今後も注視する必要があります。
今後考えうる問題について
AI for Science は各国の思惑が入り込むため、その中でのルール作りが必要になります。主要な論点の一つとして、AIがどこまで使われるべきなのかという問題があります。特に近年のLLMを用いたモデルである生成AIを用いた論文の執筆がよく議論されます(Else 2024)。しかしながら、ここで私たちが考えなければならないのは、もっと根本的なものかもしれません。丸山(2024)やTakagi(2024)はAI*Scienceでまずは全体感の把握を持って議論すべきではないかと述べています。そのためのような現状理解や議論のためにも下記のような軸を三つ提案しています。
研究パイプラインに沿って考える軸(研究者/研究主体の視点)
科学哲学の論点に沿って考える軸(内的な科学論の視点)
社会の中の科学の視点から考える(外的な科学論の視点)
端的にいうと、AIによって研究のプロセスがどうなるか、科学の営みはどうなるのか、そして最後が科学が社会への影響は何か、という3点です。国内では、AI*科学という取り組みを、現状の技術水準における全体感の整理はまだ始まったばかりです。国内でのこうした議論を発端に、国内でもより良い形での議論とそのための制度設計が生まれることを私たちはこのような活動を通じて支援できるようにしたいところです。
*1 MLについては非常にわかりやすいものがありますのでぜひこちらをご覧ください。
*2 なぜDOEがこのようなAI for Scienceを担っているのか。それに関しては、上記のDOEの発表を見ると核との繋がりからと見ることができます。
Harnessed responsibly, artificial intelligence (AI) has the power to transform our world in positive ways researchers have only just contemplated—helping us to cure diseases, heal our planet, answer major questions about our universe, speed up development for fusion energy, and accelerate manufacturing of components and systems for DOE’s nuclear security mission.
*3 CERN(Conseil Européen pour la Recherche Nucléaire)とは欧州原子核研究機構のことを指します。ヒッグス粒子を見つけたのも、この研究機構です。掲げられたスローガンは”Science for Peace”とされています(The Astronomical Society of Japan 2024)。ちなみにジュネーブ空港の目の前に作られています。
*4 Confederation of Laboratories for AI Research in Europeの創設者である Professor Hoosはこの取り組みは本来のCERN for AIより少し規模が小さくなっていると主張している(Matthews & Greenacre 2024))。
AI Alignment Talk from Japanでは毎週ニュースレターをお届けします。ニュースレターを受け取りたい方はこちらからSubscribeよろしくお願いいたします!
Xのフォローはこちらから!
Reference
Department of Energy. (2024, April 11). Innovation, Safety, and Security: DOE Leads on AI. Department of Energy. https://www.energy.gov/articles/innovation-safety-and-security-doe-leads-ai
Else, H. (2024, April 16). Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards. AAAS. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards
藤井輝夫. (2024, April 12). 令和6年度東京大学大学院入学式 総長式辞. 東京大学. https://www.u-tokyo.ac.jp/ja/about/president/b_message2024_05.html
Matthews, D., & Greenacre, M. (2024, April 15). EU Science Advisers Back Call for a ‘CERN for AI’ to Aid Research. Science | Business. https://sciencebusiness.net/news/ai/eu-science-advisers-back-call-cern-ai-aid-research
Maruyama, R. (2024, April 10). 開催記録:オンライン勉強会「AI科学を哲学する?」(w/高木史郎さん). 重ね描き日記(rmaruy_blogあらため). https://rmaruy.hatenablog.com/entry/2024/04/10/230634
RIKEN. (2024, April 11). RIKEN and Argonne National Laboratory Sign MOU on AI for Science. RIKEN. https://www.riken.jp/en/news_pubs/news/2024/20240411_1/index.html
Takagi, S. (2024, April 20). 勉強会「AI 科学を哲学する?」を振り返って. Shiro Takagi. https://rmaruy.hatenablog.com/entry/2024/04/10/230634