AI安全性

LLMの危険な応答を防ぐ新技術(Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses) 1602ソフトウェア工学

LLMの危険な応答を防ぐ新技術(Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses)

2026-03-23 ノースカロライナ州立大学(NCState)ノースカロライナ州立大学の研究チームは、大規模言語モデル(LLM)の安全性向上に向けた新たな技術を開発した。LLMは有害・不正確な情報生成のリスクが課題だが、本手法はモデルの出...
UCRがAIの不正操作に対抗する新技術を開発(UCR researchers fortify AI against rogue rewiring) 1603情報システム・データ工学

UCRがAIの不正操作に対抗する新技術を開発(UCR researchers fortify AI against rogue rewiring)

2025-09-04 カリフォルニア大学リバーサイド校(UCR)カリフォルニア大学リバーサイド校の研究チームは、軽量化されたAIモデルが安全機能を失い有害出力を生むリスクに対処する新手法を開発した。従来のモデル圧縮では内部層が削られることで...
フィルタリングされたデータで公開AIモデルの危険タスク実行を阻止(Study finds filtered data stops openly-available AI models from performing dangerous tasks) 1604情報ネットワーク

フィルタリングされたデータで公開AIモデルの危険タスク実行を阻止(Study finds filtered data stops openly-available AI models from performing dangerous tasks)

2025-08-12 オックスフォード大学オックスフォード大学、EleutherAI、英国AIセキュリティ研究所の共同研究は、オープンウェイトAIモデルの学習データから生物兵器やバイオテロ関連など高リスク情報を除去することで、安全性を高めつ...
大規模言語モデルへの新スキル学習法を開発(Researchers Found a Better Way to Teach Large Language Models New Skills) 1602ソフトウェア工学

大規模言語モデルへの新スキル学習法を開発(Researchers Found a Better Way to Teach Large Language Models New Skills)

2025-07-07 ノースカロライナ州立大学 (NCState)Image credit: Growtika.ノースカロライナ州立大学の研究者らは、LLMに新スキルを効率的に学習させる手法「WeGeFT」を開発した。これはLoRAを基盤に...
ad
タイトルとURLをコピーしました