ChatGPTが出た瞬間、日本の、ど田舎で震えた。その後、私はClaude Codeをゼロから一人で作ったボリス・チェルニー/アンソロピック ChatGPTが出た時、私は日本のど田舎にいた。「これはヤバい」と思った瞬間2022年末〜2023年初頭。 私は日本の田舎町に住んでいた。 町で唯一のエンジニアで、唯一の英語を話す人間。 周りは田んぼと山ばかり。毎朝、自転車で農家さんの直売所に行き、近所の人と手作り味噌を交換するような生活だった。そんなある朝、いつものように Hacker News を開いた。そこで出会ったのが、ChatGPT だった。 衝撃の瞬間「え……これ、本物だ。」質問を投げると、まるで賢い人間のように答えてくる。 コードを書かせてみたら、驚くほど自然に動く。 説明もわかりやすい。しかも瞬時に。その瞬間、頭の中で警報が鳴った。「このままじゃ、完全にヤバい」今まで積み上げてきたエ
米国国立標準技術研究所(NIST)は2026年4月15日(米国時間、以下同)、「NVD」(National Vulnerability Database:脆弱《ぜいじゃく》性情報データベース)における「CVE」(Common Vulnerabilities and Exposures:共通脆弱性識別子)の取り扱い方針を大幅に変更すると発表した。急増する脆弱性報告に対応するため、従来の「全件分析」から、リスクベースで優先順位を付ける運用モデルへと移行する。 これまでNVDは、登録された全てのCVEに対して、共通脆弱性評価システム(CVSS)による深刻度スコアや影響を受ける製品などの詳細情報を付与し、セキュリティ担当者が対応優先度を判断できるよう支援してきた。しかしこのモデルは、近年のCVE件数の爆発的な増加によって限界を迎えていた。 実際、CVEの提出件数は2020~2025年の間に263%
Findyでは数年前から全スタッフに週報を書いてもらっています。以前もnoteで書いたのですが、週報の効能は大きく2つあって、一つは経営陣が現場の解像度を持ち続けて意思決定レベルを上げること、もう一つはメンバー個人の振り返りと成長の機会を作ることです。 ただ、最近ちょっと困ったことが起きていて、週報を読むのが苦痛になっています。人によってですが、つまらなくなってきています。 なぜ週報はつまらなくなったのか正直に言うと、明らかにAIで生成されたと分かる週報が増えてきました。カレンダーの予定をそのまま拾ってきたり、NotionのメモやGitHubのイシューをまとめただけの内容になっていたりする週報が出てきていて、まず読むのが大変なくらい長い。そして何より、経営として本当に読みたいのはその人の考えや気づき、現場でしか拾えない一次情報なのに、それがすっぽり抜け落ちてしまっています。 AIが週次の業
ダメだ我慢の限界 俺の小学校から仲良しだった友達らとBBQする(その子供も何人か来る)のを家族で行こうって誘ったら行かない、知らない人いるし家族で来る人がいないならそう言うのは今後行かないってなんなんだよお前… その日はばあばと潮干狩りだからとか俺前々から誘ってたじゃん…皆に嫁さんと子供に会えるの楽しみにしてるよって言われちゃったよ 俺のエゴの押しつけになってる部分も少なからずはあると思う、でもそれでも人との繋がりって凄く大切だと思うしまだ自分が知らない世界や価値観を持ってる人らと出会える楽しさって分からないのかな なんか悔しいとか怒るとか悲しい通り越して呆れる。 しょうがない、そう言う人だもんね 選んだのも自分自身だし これからこういうことある時は子供と二人で出かけよう 申し訳ないけど、もう無理です 追記 何でこうも自分よがりな性格の人が多いんだろな〜人生もったいない これはこれで面白い
この記事を読んでほしい人 Claude Code / Cursor / Copilot などの AIエージェントをチームに導入したい 人 情シスから「セキュリティ面の対応は?」と聞かれて 技術的に答えたい 人 「導入したいけどセキュリティが心配」で 手が止まっている 人 AIエージェント導入で必ず聞かれる3つの質問 AIエージェントの導入を提案すると、情シスやセキュリティ部門からだいたいこう聞かれます。 Q1: 「AIが何をしているか見えないけど大丈夫?」 Q2: 「危険な操作を勝手にされない?」 Q3: 「何かあったとき説明できる?」 どれも正当な心配です。AIエージェントはチャットボットと違って、自分の判断でファイルを書き換えたり、コマンドを実行したり、外部に送信したり します。つまり「画面に出る応答」の裏で、別の何かが動いている可能性があります。 本記事では Aigis という OS
数学の超難問「ABC予想」の証明について、ZEN大学などの国際研究チームが31日、「1年半前から証明の検証を進めていた」と発表した。検証は途中だが、京都大の望月新一教授(57)の証明には「現時点で解…
2026年が明けてすぐに「人工知能(AI)が未解決の数学の定理を証明した」とする論文の公表が世界で相次いだ。近年のAIの進化はめざましく、数学者が長年答えを出せなかった問題が次々と解かれている。専門家は「2026年はAIが安定して数学の未解決問題を解けるようになった最初の年といえる」と話す。 この勢いで超難問とされるリーマン予想も攻略してしまうのか? AIによる数学の可能性を探った。(共同通信=浅見英一) ▽世界的数学者が「AIが自律的に証明した」と宣言 1月、米カリフォルニア大のフィールズ賞数学者、テレンス・タオ氏が自身のSNSで、約50年も未解決だった「エルデシュ問題728番」という数学の予想について「AIが自律的に解決した」と宣言した。 エルデシュ問題は、20世紀ハンガリーの大数学者ポール・エルデシュが生涯に残した問題の数々を指し、千近くある。728番はその一つで、(a+b-n)の階
AIへ指示する際に「あなたはこの分野の専門家です」と伝えることで性能が向上する、というウワサがまことしやかにささやかれています。このウワサを検証した研究がプレプリントサーバーのarXivに掲載されました。 [2603.18507] Expert Personas Improve LLM Alignment but Damage Accuracy: Bootstrapping Intent-Based Persona Routing with PRISM https://arxiv.org/abs/2603.18507 Telling an AI model that it's an expert makes it worse • The Register https://www.theregister.com/2026/03/24/ai_models_persona_prompting/
はじめに Linuxカーネルの脆弱性 Copy Fail(CVE-2026-31431) が話題になっています。 ざっくり言うと、これは 一般ユーザーがroot権限を取得できる可能性があるローカル権限昇格(すでにLinux上で動けるユーザーが、より強い権限を得る攻撃)の脆弱性 です。 ポイントは次のとおりです。 リモート(インターネット越しなど外部)から直接攻撃する脆弱性ではない すでにLinux上でコードを実行できるユーザーが悪用するタイプ 成功するとroot権限(Linuxの管理者権限)を取られる可能性がある PoC(Proof of Concept。脆弱性を実際に再現できる検証コード)が公開されている コンテナ(Dockerなどの隔離された実行環境)、CI/CDランナー(テストやビルドを自動実行するサーバー)、共用Linuxサーバーでは特に注意が必要 CERT-EU(EU機関向けのセ
同居する交際相手男性(以下、Aさん)の乳首や指を切断したなどとして計3件の傷害事件に問われている佐藤紗希被告(23、2025年4月の逮捕当時)の第6回公判が大阪地裁で開かれた。 【写真を見る】SNSにはビキニ姿、シスターに仮装している姿や、キャバクラ時代の写真が多数 この日は、判決前最後となる双方の主張が展開され、検察官は傷害罪として特に重い部類であるとして懲役6年を求刑した。一方、弁護側は傷害行為は認めるものの、これまでのAさんとの関係性から同意があった行為であるとして無罪を主張し結審した。 これまで裁判を踏まえながら双方の具体的な主張を明らかにする。ライターの普通氏がレポートする。【前後編の前編】 ※本記事には一部ショッキングな犯行態様が含まれます。 保釈後、影響力を発揮しはじめる被告人 3月に行われた前回公判を終えて身柄が保釈された被告人。SNSの発信なども再開しており、傍聴席には被
けっこう実用的。「OpenCode」×ローカルLLMで“無料Claude Code”してみた2026.05.02 13:0033,155 かみやまたくみ オープンソースのAIコーディングエージェント「OpenCode」をローカルLLM「Gemma-4-26b-a4b」で動かして簡単なゲームを作っているところ Image: かみやまたくみ AIでいろんなことができる反面、料金もけっこうかかるように。 個人的に最近すごーく気になっています。新しいAIアプリやサービスを導入したくても、コストが厳しいことが多い。 気づいたら「安く使えて実用性もあるAIやアプリはないかな?」と日々探すようになっていました。 そんな中、なかなかいい組み合わせを見つけました。 オープンソースのAIコーディングエージェント「OpenCode」をGoogleの最新ローカルLLM「Gemma 4」と組み合わせて使ってみたら、
南アフリカではAIのルール整備と普及促進を目指した政策草案が公表され、意見募集が行われていました。しかし、その草案にはAIによって生成されたと思われる架空の情報源が含まれていることが判明し、草案の撤回が発表されました。 South Africa withdraws AI policy due to fake AI-generated sources | Reuters https://www.reuters.com/world/africa/south-africa-withdraws-ai-policy-due-fake-ai-generated-sources-2026-04-27/ South Africa withdraws AI policy filled with AI hallucinations | Mashable https://mashable.com/article
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く