大規模言語モデル

AIの仕組みを可視化する「Transformer Explainer」を開発(Transformer Explainer Shows How AI is More Math than Human) 1602ソフトウェア工学

AIの仕組みを可視化する「Transformer Explainer」を開発(Transformer Explainer Shows How AI is More Math than Human)

2026-03-31 ジョージア工科大学ジョージア工科大学の研究チームは、大規模言語モデルの内部動作を可視化する「Transformer Explainer」を開発し、AIが人間に近い“数学的思考”を行っている可能性を示した。従来、AIの判...
分散型AIモデルからデータを除去する「フェデレーテッド・アンラーニング」技術を開発(Removing Corporate Data from AI Models) 1603情報システム・データ工学

分散型AIモデルからデータを除去する「フェデレーテッド・アンラーニング」技術を開発(Removing Corporate Data from AI Models)

2026-04-01 フラウンホーファー研究機構本記事は、フラウンホーファー研究機構が、AIモデルから企業の機密データを安全に削除する新技術を開発していることを紹介する。大規模言語モデルは学習データを内部に保持するため、機密情報が意図せず残...
ad
AI脆弱性検出を拡張するPhotonフレームワーク(Photon framework scales AI vulnerability discovery) 1603情報システム・データ工学

AI脆弱性検出を拡張するPhotonフレームワーク(Photon framework scales AI vulnerability discovery)

2026-03-24 オークリッジ国立研究所(ORNL)米国のオークリッジ国立研究所(ORNL)は、AIを活用した脆弱性検出を大規模化する新フレームワーク「Photon」を開発した。この手法は、大規模言語モデルを用いてソフトウェアコード内の...
AIは文学のニュアンスを理解できるかを検証(Can AI Understand Literature?) 1603情報システム・データ工学

AIは文学のニュアンスを理解できるかを検証(Can AI Understand Literature?)

2026-03-24 コロンビア大学コロンビア大学の研究チームは、AIが文学作品をどの程度理解できるかを検証した。研究では、大規模言語モデルに対し物語の解釈や登場人物の意図、文脈理解を問う課題を与え、人間の読解と比較。その結果、AIは表面的...
LLMの危険な応答を防ぐ新技術(Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses) 1602ソフトウェア工学

LLMの危険な応答を防ぐ新技術(Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses)

2026-03-23 ノースカロライナ州立大学(NCState)ノースカロライナ州立大学の研究チームは、大規模言語モデル(LLM)の安全性向上に向けた新たな技術を開発した。LLMは有害・不正確な情報生成のリスクが課題だが、本手法はモデルの出...
事前学習済みの大規模言語モデルに基づいて原子力発電所の運転パラメータを予測する新手法(New Method Predicts Nuclear Power Plant Operating Parameters Based on Pre-trained Large Language Model) 2002原子炉システムの運転及び保守

事前学習済みの大規模言語モデルに基づいて原子力発電所の運転パラメータを予測する新手法(New Method Predicts Nuclear Power Plant Operating Parameters Based on Pre-trained Large Language Model)

2026-03-12 中国科学院(CAS)中国科学院合肥物質科学研究院の研究チームは、原子力発電所の運転パラメータを高精度で予測するAIフレームワーク「NPP-GPT」を開発した。複雑で高次元の運転データに対応するため、数値時系列データを事...
協調型マルチエージェントとロボットによる知識駆動型自律材料研究(Knowledge-driven Autonomous Materials Research via Collaborative Multi-agent and Robotic System) 1603情報システム・データ工学

協調型マルチエージェントとロボットによる知識駆動型自律材料研究(Knowledge-driven Autonomous Materials Research via Collaborative Multi-agent and Robotic System)

2026-01-22 中国科学院(CAS)新材料探索は従来、長期間と高コストを要するが、大規模言語モデル(LLM)の発展により自律化の可能性が広がっている。本研究では中国科学院深圳先進技術研究院(SIAT)の于雪峰教授率いるチームが、知識駆...
ChatGPTが世界的不平等を拡大させる可能性(New study finds that ChatGPT amplifies global inequalities) 1600情報工学一般

ChatGPTが世界的不平等を拡大させる可能性(New study finds that ChatGPT amplifies global inequalities)

2026-01-20 オックスフォード大学2026年1月20日、オックスフォード大学インターネット研究所(Oxford Internet Institute; OII)とケンタッキー大学の研究チームは、ChatGPTが既存の世界的な不平等を...
強力なAIがなぜ基本的な掛け算を学べないのか?(Why can’t powerful AIs learn basic multiplication?) 1504数理・情報

強力なAIがなぜ基本的な掛け算を学べないのか?(Why can’t powerful AIs learn basic multiplication?)

2025-12-24 シカゴ大学最新の研究によれば、現代の大規模言語モデル(LLM)は複雑な文章生成や高度な推論が可能であるにもかかわらず、 4桁同士の掛け算 といった基礎的な算術ではほとんど正解できないという。研究チーム(シカゴ大・MIT...
AIメモリの縮小が精度を向上(Shrinking AI memory boosts accuracy) 1601コンピュータ工学

AIメモリの縮小が精度を向上(Shrinking AI memory boosts accuracy)

2025-12-22 エディンバラ大学エディンバラ大学とNVIDIAの研究チームは、大規模言語モデル(LLM)のメモリ使用量を劇的に圧縮しながら性能を維持・向上させる新手法を開発した。この研究では、モデルが推論時に生成する「推論スレッド(思...
採用におけるAIバイアスが人間の意思決定にも反映される可能性を発見(People mirror AI systems’ hiring biases, study finds) 1603情報システム・データ工学

採用におけるAIバイアスが人間の意思決定にも反映される可能性を発見(People mirror AI systems’ hiring biases, study finds)

2025-11-10 ワシントン大学(UW)UWの研究チームは、528人の参加者を対象に、16職種(コンピュータシステムアナリスト、ナースプラクティショナー、ハウスキーパーなど)でAI(模擬大規模言語モデル)と協働して候補者を選ぶ実験を行い...
ad
タイトルとURLをコピーしました