![](https://cdn-ak-scissors.b.st-hatena.com/image/square/c68fbf9944bdcef403b3f4ccb43d1a6bab7d921f/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUU1JUE0JUE3JUU4JUE2JThGJUU2JUE4JUExJUU4JUE4JTgwJUU4JUFBJTlFJUUzJTgzJUEyJUUzJTgzJTg3JUUzJTgzJUFCJUUzJTgxJUFFJUU5JUE5JTlBJUU2JTg0JTk1JUUzJTgxJUFFJUU4JTg0JTg2JUU1JUJDJUIxJUU2JTgwJUE3JUVGJUJDJTlBJUU1JThEJTk4JUU0JUI4JTgwJUUzJTgyJUI5JUUzJTgzJTlBJUUzJTgzJUJDJUUzJTgyJUI5JUUzJTgxJUE3JUU3JUEwJUI0JUUzJTgyJThDJUUzJTgyJThCJUU1JUFFJTg5JUU1JTg1JUE4JUU2JTgwJUE3JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmcz00YmYxOWQ5NjUwZjk2YzE1YTUxNDY4YjkyZjQwOTRmNA%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBrZS1zdWtlLVNvZnQmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTg5NDAxYTdkNTVjN2M4ZDAyYzkyMTE5Y2NkZjY1MTRj%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D3e31eb6d9f342221fcb1300ef4d88bf2)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
大規模言語モデルの驚愕の脆弱性:単一スペースで破れる安全性 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
大規模言語モデルの驚愕の脆弱性:単一スペースで破れる安全性 - Qiita
Single Character Perturbations Break LLM Alignment 今回は、最新の研究成果である「Single Character... Single Character Perturbations Break LLM Alignment 今回は、最新の研究成果である「Single Character Perturbations Break LLM Alignment」という論文をご紹介します。この研究は、大規模言語モデル(LLMs)の整合性を単一文字の追加によって破ることができるという驚くべき発見を報告しています。 論文情報 タイトル: Single Character Perturbations Break LLM Alignment リンク: arXiv:2407.03234 発表日: 2024年7月3日 著者: Leon Lin, Hannah Brown, Kenji Kawaguchi, Michael Shieh DOI: 10.48550/arXiv.2407.03234 背景と目的 LLMsは、感度の高い人