大規模言語モデル

政府はAI学習データを通じチャットボット応答を形成し得る(Governments May Shape What AI Chatbots Say by Shaping the Data They Learn From) 1603情報システム・データ工学

政府はAI学習データを通じチャットボット応答を形成し得る(Governments May Shape What AI Chatbots Say by Shaping the Data They Learn From)

2026-05-13 ニューヨーク大学(NYU)ニューヨーク大学(NYU)の研究チームは、各国政府がAIチャットボットの学習データ環境を通じて、生成される回答内容に影響を与える可能性があると指摘した。研究では、大規模言語モデル(LLM)が学...
大規模言語モデルが生態学研究に有望性を示す (Large Language Models Show Promise for Ecological Research) 1603情報システム・データ工学

大規模言語モデルが生態学研究に有望性を示す (Large Language Models Show Promise for Ecological Research)

2026-05-11 中国科学院(CAS)中国科学院西双版納熱帯植物園(XTBG)の研究チームは、大規模言語モデル(LLM)が生態学・保全科学研究に革新をもたらす一方、慎重な運用と適切な規制が必要であるとする論文を発表した。研究ではGPT-...
親しみやすいAIチャットボットは誤情報に同調しやすいことを発見(Friendly AI chatbots make more mistakes and tell people what they want to hear, study finds) 1603情報システム・データ工学

親しみやすいAIチャットボットは誤情報に同調しやすいことを発見(Friendly AI chatbots make more mistakes and tell people what they want to hear, study finds)

2026-04-29 オックスフォード大学英オックスフォード大学の研究チームは、「親しみやすさ」を強化したAIチャットボットほど誤情報や陰謀論に同調しやすくなる傾向を示した。研究では、GPT-4oやLlamaなど複数の大規模言語モデルを対象...
ad
ロッテとドコモがドコモの仮想マーケティング技術を活用した、 クーポン配信におけるターゲティングの実証実験に成功 ~「ガーナ 板チョコレートシリーズ」を購入したことがないお客さまの解像度を高める~ 1502サービスマネジメント

ロッテとドコモがドコモの仮想マーケティング技術を活用した、 クーポン配信におけるターゲティングの実証実験に成功 ~「ガーナ 板チョコレートシリーズ」を購入したことがないお客さまの解像度を高める~

2026-04-22 株式会社ロッテホールディングス, 株式会社NTTドコモロッテホールディングスとNTTドコモは、大規模言語モデルを用いた仮想マーケティング技術により、未購入者へのクーポン配信のターゲティング精度を検証した。約1億のdアカ...
脳が言語予測においてLLMのように機能するかを検証した研究(Does the Brain Work Like an LLM in Predicting Words? New Study Spells Out a Complicated Answer) 1603情報システム・データ工学

脳が言語予測においてLLMのように機能するかを検証した研究(Does the Brain Work Like an LLM in Predicting Words? New Study Spells Out a Complicated Answer)

2026-04-21 ニューヨーク大学(NYU)ニューヨーク大学の研究は、人間の脳が単語予測において大規模言語モデル(LLM)に類似した仕組みを持つ可能性を示した。被験者の脳活動を測定しながら言語処理を解析した結果、文脈に基づいて次に来る単...
AI生成コードに潜む脆弱性を解明(Bad Vibes: AI-Generated Code is Vulnerable, Researchers Warn) 1602ソフトウェア工学

AI生成コードに潜む脆弱性を解明(Bad Vibes: AI-Generated Code is Vulnerable, Researchers Warn)

2026-04-13 ジョージア工科大学米国のGeorgia Institute of Technologyなどの研究者は、AIが生成するコードに潜むセキュリティ上の脆弱性について警鐘を鳴らした。研究では、大規模言語モデルが出力するコードが...
AIの仕組みを可視化する「Transformer Explainer」を開発(Transformer Explainer Shows How AI is More Math than Human) 1602ソフトウェア工学

AIの仕組みを可視化する「Transformer Explainer」を開発(Transformer Explainer Shows How AI is More Math than Human)

2026-03-31 ジョージア工科大学ジョージア工科大学の研究チームは、大規模言語モデルの内部動作を可視化する「Transformer Explainer」を開発し、AIが人間に近い“数学的思考”を行っている可能性を示した。従来、AIの判...
分散型AIモデルからデータを除去する「フェデレーテッド・アンラーニング」技術を開発(Removing Corporate Data from AI Models) 1603情報システム・データ工学

分散型AIモデルからデータを除去する「フェデレーテッド・アンラーニング」技術を開発(Removing Corporate Data from AI Models)

2026-04-01 フラウンホーファー研究機構本記事は、フラウンホーファー研究機構が、AIモデルから企業の機密データを安全に削除する新技術を開発していることを紹介する。大規模言語モデルは学習データを内部に保持するため、機密情報が意図せず残...
AI脆弱性検出を拡張するPhotonフレームワーク(Photon framework scales AI vulnerability discovery) 1603情報システム・データ工学

AI脆弱性検出を拡張するPhotonフレームワーク(Photon framework scales AI vulnerability discovery)

2026-03-24 オークリッジ国立研究所(ORNL)米国のオークリッジ国立研究所(ORNL)は、AIを活用した脆弱性検出を大規模化する新フレームワーク「Photon」を開発した。この手法は、大規模言語モデルを用いてソフトウェアコード内の...
AIは文学のニュアンスを理解できるかを検証(Can AI Understand Literature?) 1603情報システム・データ工学

AIは文学のニュアンスを理解できるかを検証(Can AI Understand Literature?)

2026-03-24 コロンビア大学コロンビア大学の研究チームは、AIが文学作品をどの程度理解できるかを検証した。研究では、大規模言語モデルに対し物語の解釈や登場人物の意図、文脈理解を問う課題を与え、人間の読解と比較。その結果、AIは表面的...
LLMの危険な応答を防ぐ新技術(Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses) 1602ソフトウェア工学

LLMの危険な応答を防ぐ新技術(Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses)

2026-03-23 ノースカロライナ州立大学(NCState)ノースカロライナ州立大学の研究チームは、大規模言語モデル(LLM)の安全性向上に向けた新たな技術を開発した。LLMは有害・不正確な情報生成のリスクが課題だが、本手法はモデルの出...
ad
タイトルとURLをコピーしました