生成AIを悪用し、コンピューターウイルスを作成したとして警視庁は25歳の男を逮捕しました。生成AIを使ったウイルス作成の摘発は全国で初めてとみられます。逮捕されたのは川崎市の無職・林琉輝容疑者(25)で、去…
![生成AIでコンピューターウイルス作成か 男(25)を逮捕 ITの専門知識なし 全国初の摘発か | TBS NEWS DIG](https://cdn-ak-scissors.b.st-hatena.com/image/square/d497f6f3fedf50636f0d666dcb4b7e0610b44e53/height=288;version=1;width=512/https%3A%2F%2Fnewsdig.ismcdn.jp%2Fmwimgs%2F3%2F8%2F1200w%2Fimg_38696bcd25d3c94cff0d94061a2f9071306409.jpg)
2024年版のレポートは、世界の学会や実業界、政府機関、国際団体などの専門家約1500人を対象に実施した調査に基づき、今後2年間と10年間のリスク展望についてまとめた。 異常気象や国家間の武力衝突がエスカレートし、AIの台頭に伴うサイバーセキュリティ不安が高まる中、専門家の大多数は「世界的大惨事」のリスクがあるとの認識を示している。特に今後10年の予想では17%が「差し迫ったリスク」、46%が「増大するリスク」を予想した。 今後2年の短期的リスクの筆頭に虚偽情報が挙げられたのは、AIが悪用されて誤った情報が世界中で氾濫する懸念が強まった影響が大きい。 報告書によれば「誤情報や虚偽情報は国内外の社会的・政治的分断を拡大させる目的で利用される可能性がある」。特に24~25年にかけては、米国やインド、英国など主要国で選挙が行われ、30億人あまりが投票を予定していることからリスクが大きいとした。
マイクロソフトは2月8日、「ChatGPT」に似たチャットAIを搭載した「新しいBing」を発表しました。しかしその翌日に、このチャットAIに隠された情報を、スタンフォード大学の学生ケビン・リュー氏がAIとの対話によって解き明かしています。 *Category:テクノロジー Technology *Source:Ars technica ,@kliu128 BingのチャットAIが「秘密の設定」を漏らしてしまう 一般的な大規模言語モデル(GPT-3や ChatGPTなど)は、学習中に「学習」した大量のテキスト素材から、一連の単語の次に来るものを予測することで動作するものです。開発者は、チャットAIの初期条件を設定するために、ユーザーからの入力を受けたときの動作を指示する初期プロンプト、つまりはキャラ設定のようなものを決めています。 今回リュー氏が仕掛けたのは「プロンプト・インジェクション」
チャットボット「ChatGPT」は、さまざまな形で話題となっているが、Amazon社内では、機密情報をチャットボットと共有しないように警告しているそうだ。同社内のSlackチャンネルでは、社内では社員がChatGPTを研究目的と日常の問題解決の両方に利用しているという。このため車内では昨年の12月頃には、ChatGPTを使う際の手引やガイドラインなどが存在するのかといった質問等が出ていたようだ(Medium、Business Insider Japan)。 これに回答した同社の上級顧問弁護士の回答のスクリーンショットが流出しているようだ。その内容を報じた記事によると弁護士は従業員に対し、ChatGPTに自分が作業中のAmazonコードなどを含む機密情報を書き込まないよう注意喚起しているとのこと。その理由としてChatGPTに入力したデータは、ChatGPTアプリケーションの学習データとして
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米ミシガン大学、米フロリダ大学、電気通信大学による研究チームが発表した論文「You Can’t See Me: Physical Removal Attacks on LiDAR-based Autonomous Vehicles Driving Frameworks」は、自動運転車の周囲を検知するセンサーにレーザー光を物理的に照射して、選択的に障害物を見えなくする攻撃を提案した研究報告だ。偽の情報を注入するスプーフィング攻撃で自動運転車の物体検出モデルに影響を与え安全を脅かす。 自動運転車の知覚システムは、LiDARやカメラ、レーダーなどのセンサーを活用して、障害物回避やナビゲーション制
スマートフォンで文字を入力する際に、画面と指が当たるごくわずかな音をAIで解析すると入力された文字を高い精度で推測できることが静岡大学のグループの研究で分かりました。グループでは新たなセキュリティー対策が必要になる可能性があるとしています。 グループでは、スマートフォンに文字を入力する際に指や爪が画面に当たってわずかに音が鳴ることに注目し、実際のスマートフォンで「0」から「9」までの数字をそれぞれ100回ずつ入力して、その際に出る音をAIに学習させました。 そして、実際に画面をタップしてその音から、どの数字を入力したのかAIに解析させたところ、95%以上の精度で正しい数字を推測することができたということです。 グループによりますと、スマートフォンの画面は内部の部品の取り付け方などで場所により音質や反響にわずかな違いがあり、AIはその違いからタップした位置を推測しているとみられるということで
「私はロボットではありません」選ぶ必要なし 新「reCAPTCHA」Googleが公開、ユーザーは何もしなくてOK 米Googleは10月29日、人間とbotを識別するための新API「reCAPTCHA v3」を公開したと発表した。従来のreCAPTCHAは、ゆがんだ文字を読み取ったり、チェックボックスにチェックを入れるなどユーザーによる操作が必要だったが、v3は操作が不要。リスク分析エンジンでユーザーのアクティビティを分析し、どれぐらい不審かをスコア化して示すことで、Webサイトオーナーが対策を講じられるようにした。 reCAPTCHA v1では、アクセスした全ユーザーに対して、ゆがんだ文字を読み取って入力するよう要求していた。reCAPTCHA v2では、「I'm not a robot」(私はロボットではありません)というチェックボックスにチェックを入れる方法がメインとなり、リスク分
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く