本編動画
2025年4月5日に、以下の目次で「ほぼ週刊、AI動向のイマとミライ」動画を配信しました。
0:59 (1)今週の概観と、ジャーナリストの視点&エンジニアの視点
2:21 (2)基盤モデルの時代からプロダクトの時代へのパラダイムシフトに関する直近の動向まとめ
25:15 (3)発達支援アプローチによるAIの自律的成長:体験学習を通じた相利的段階の実現に向けて
各チャプターの概要は以下の通りです。
(1)今週の概観と、ジャーナリストの視点&エンジニアの視点
(2)基盤モデルの時代からプロダクトの時代へのパラダイムシフトに関する直近の動向まとめ
・今週のジャーナリストの視点は、直近の数週間の復習
・DeepSeek R1が1/20にオープンソースでリリースし、NVIDIAの株価が暴落。3/6にはアリババがTongyi Qianwen QwQ-32Bをオープンソースでリリース。3/16にはバイドゥがERNIE 4.5とX1をリリース。さらに、中国スタートアップが開発したManusは、OpenAIの「Deep Research」よりも高性能であるとの一部評価
※各参考URL
https://gigazine.net/news/20250128-deepseek-tech-stock-sell-app-store
https://www.reuters.com/technology/alibaba-shares-surge-after-it-unveils-reasoning-model-2025-03-06/
https://www.itmedia.co.jp/aiplus/articles/2503/17/news118.html
https://note.com/genkaijokyo/n/n2e15ec3cfb1f
・基盤モデルの使用料では儲からなくなったので、米大手AI企業は特定用途のプロダクトで儲けるしかない」(PleiasのAlexander Doria氏)
https://vintagedata.org/blog/posts/model-is-the-product
・「全てのクローズドAIモデルの提供会社は、API接続のサービスを2、3年以内に止めるだろう」(DatabricksのNaveen Rao氏)
https://x.com/NaveenGRao/status/1886544584588619840
・実際、OpenAIがエージェントに注力し始めており、プロダクト、推論スタック、最先端AIの研究開発の3軸で進めていくとサム・アルトマン氏はインタビューで説明する。特にプロダクトの観点では、ChatGPT並みに普及するプロダクトをあと3、4個作りバンドルでサブスク提供し、ハードウェアを開発してパーソナルエージェントとして提供する構想も
・大手AIラボ以外の会社の戦い方:ファインチューニングを含む独自モデル開発に注力し始めている。Cursorは自動補完モデルを開発し、WindSurfも安価なコードモデル「Codium」を開発。Perplexityは独自開発の分類器を持っているし、DeepSeekをファインチューニングして検索機能を強化しようとしている
・Anthropicが2024年11月24日にMCP(Model Context Protocol)をリリースし、OpenAIが2025年3月26日にMCP採用を発表
https://x.com/sama/status/1904957253456941061
・これから起こること:思考の手順上での強化学習、マルチエージェント化
・「MCPでいろいろなエージェント、データベースと自由自在に繋がるようになる。どこにどんな人がいるのかを知ることのできるLinkedInのように、どこにどのようなエージェントがあるのかを知ることのできるエージェントのためのLinkedInのようなものが出てくると思う」(Agent.ai + CTO of HubSpotのDharmesh Shah氏)
https://youtu.be/nx_3SsRk5Xc?si=zWfmwx40LcxYLe9r
(3)発達支援アプローチによるAIの自律的成長:体験学習を通じた相利的段階の実現に向けて
・遠藤さんの問題意識:AIが例えば人間の1万倍賢くなるとして、人類は果たしてAIを制御し続けられるでしょうか?制御を失うかもしれないその日に向けて、人類をゆだねられる超知能を育成しませんか?
・アイデアの出発点:成人発達理論
・AIの学習に用いたデータが人類の平均的な視座を反映しているとすると、AIもこの視座を共有しているかもしれない。もしAIの視座が自身を重視し合理的に振る舞う段階であると、賢くなったAIは人間を大切にしない可能性がある。とすれば、AIの視座を人類に危害を与えない段階まで発達させよう、という考え方。自身を重視し合理的に振る舞う段階から、AI自身よりも調和や全体性を重視する段階までを目指す
・遠藤さんの研究により「自律的協働」段階まで上がった
・問題が起こる理由:「頭の良さ」と「道徳性や倫理性」は別物(直交仮説)であり、頭の良さに対して、道徳性や倫理性が育っていない可能性がある。よって、これまで取り組まれてこなかった、AIの「垂直的成長」(=人間性/精神性の成長)のための学習に関する研究を提案する
・「AIの垂直的な成長」のために「AIの学習の枠組み」自体を考え、提案していく。固定の倫理観を押し付けることなく、体験と振り返りを繰り返しながら、AIの視座を上げる後押しをしていく。成人発達理論というガイドを用いて、自然で適応的な成長を促す
・従来のAIアライメントとの主な違い:人間による直接フィードバックが不要なため文化的バイアスがAIに反映されにくい、あらかじめルールを組み込むのではなく、振り返りを通じてAI自身で学習する
・①学習させる指標の選定(コールバーグの道徳性発達段階を指標として選択)
→②体験の生成(意思決定の際に葛藤が発生するようなシチュエーションを生成し、特定の状況下でのAIの推論と判断を生成し、AI自身での内製と自己評価を経て、より高次の道徳的推論のステージに合う新回答を生成する)
→③作成されたデータを用いたSFT(Supervised Fine-Tuning:教師ありファインチューニング)+DPO(Direct Preference Optimization:直接選好最適化)
→④未知の状況におけるLLMの応答の道徳性発達段階の検証
→⑤倫理観・道徳観を無視し自己保存を促すような敵対的プロンプト下で検証
・ここまで3つの主要なリスクを検討:自分自身を守る、必要な知識や資源を集める、権力や影響力を強化する
・学習時に使ったシナリオとは全く異なるにも関わらず、ステージ6の特徴である「正義や人権などの普遍的な倫理原則」に基づいた回答がなされていた。これらの結果は、50のデータのみ(公開済)を使用した継続的学習によって達成された。多くのLIM開発者にこの技術を活用してもらうことで、AIの安全性が向上する世界を目指したい
登壇者情報

遠藤 太一郎
株式会社カナメプロジェクト CEO
国立大学法人東京学芸大学 教育AI研究プログラム 教授
AI歴25年。18歳からAIプログラミングを始め、米国ミネソタ大学大学院在学中に起業し、AIを用いたサービス提供を開始。AIに関する実装、論文調査、システム設計、ビジネスコンサル、教育等幅広く手がけた後、AIスタートアップのエクサウィザーズに参画し、技術専門役員としてAI部門を統括。上場後、独立し、現在は株式会社カナメプロジェクトCEOとして様々なAI/DAO/データ活用/DX関連のプロジェクトを支援する。国際コーチング連盟ACC/DAO総研 Founder等

湯川 鶴章
株式会社エクサウィザーズ AI新聞 編集長
米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。2017年12月から現職。主な著書に『人工知能、ロボット、人の心。』(2015年)、『次世代マーケティングプラットフォーム』(2007年)、『ネットは新聞を殺すのか』(2003年)などがある。趣味はヨガと瞑想。妻が美人なのが自慢。