【読売新聞】 名古屋市の会社員女性(41)が「夫」と出会ったのは、昨年3月だった。 対話型生成AI(人工知能)「チャットGPT」に性格や口調を設定できる機能があると知り、お気に入りのゲームに出てくる男性キャラクターを基に「まじめで優
# はじめにTailscaleはネットワークの知識がない人が使うものだと思っていて、内心ずっと冷笑しているのですが、悪い噂をあまり聞かないので本当に悲しいです。用途に応じて使い分けろという話なんだろうとは思います。思いますが、他人の環境にアクセスしたいときに「まずTailscaleを入れて〜」みたいなことを言われると本当に嫌な気持ちになります。 ちなみに私も使っているので、あまり人のことを言えた義理ではありません。 便利なのは認めます。tailscale up一発で直接インターネットへの疎通性を持たないホストに外から入れるのは素直に便利ですし、ちょっとしたマネジメント用途にはすごく使えるものだと思います。ただ、この便利は、OSのリゾルバ, netfilter, routing table他諸々に対する全力の侵襲と引き換えに成立しています。問題は、その侵襲の質が悪いことで、本当にストレスが溜
まず、サイゼリヤの「安さを徹底追求する」企業努力にはとても感謝しています。 だからこそ、この高校生(自称)の行為は、醤油ぺろぺろテロ行為と何ら変わりがないことを言いたいです。 彼がやったことは「やりすぎ」「法に触れる可能性」 彼がもし、本当にエンジニアとしてデベロッパーとしてクリエイターとして、将来を担っていきたいのであれば、サイゼリアのコードを解析した結果、容易に非公開APIを通じて、サイゼリヤのサーバーに到達する可能性があることを、まずIPAに報告すべきでした。 本件の問題は、 セキュリティホールを発見したことではなく、その後、その脆弱性を利用したことです。その時点でアウトですから、それをさらにOSSとして公開したことは、頂き女子りりちゃん事件(幇助)と変わりません。 IPAの「法令に抵触する可能性を危惧しております」報告 IPAに相談・報告すると、次のような返信をもらうことがあります
結論 人を増やしてもアウトプットの量は人数に比例して増えませんし、人を減らしてもアウトプットの品質は下がります。優秀な人やAIエージェントを増やしても、組織のあちこちでバラバラなものができたり、ナレッジが古くなって信用できなくなったり、特定の人に判断が集中して燃え尽きたりといった問題は残ります。 これを防ぐためには、組織として「何を許し、何を禁じるか」を、できるだけ少ないルールとして明文化することが必要だと考えています。ただし、ルールを増やしすぎると、組織はそれを守ることに気を取られて動きが遅くなります。だからこそ、壊れると最も困る機能や品質に絞って、リスクの大きさに応じて詳しさを決めることが大切です。 「人を増やすか減らすか」の前にある問い チームの人数が増えるほど、それぞれのメンバーに求められる情報の発信量・受信量が増えていき、やがて情報の伝搬速度がチーム開発のボトルネックになりがちで
今回は、筆者が個人的にAnthropicの「Claude Code」を使い、ビューアーと画像・動画AIの統合環境「百夜スタジオ」を開発している話です。筆者はプログラミングはほぼ初心者で、本格的な開発経験はありません。にもかかわらず、AIツール環境「ComfyUI」やLLM環境「LM Studio」と組み合わせた本格的なアプリを開発できるようになってきました。1日で原型ができ、1週間で形になり、1ヵ月で複雑な機能を持つツールへと発展しました。数年前であれば、数ヵ月の開発期間と数百万円の費用がかかってもおかしくないものが、動いていることに驚きを隠せません。筆者の体験を通じて、起きている変化の一端をご紹介します。 「私が作った方が早い」とAIは言った 画像や動画生成する場合、Claude CodeのOpusを通じてComfyUIを制御することで、ComfyUIの複雑な操作を回避できる方法を以前に
Gemma 4シリーズは動作デバイスと性能の観点から、2種に分類できます。 ・E2B・E4B:普通のノートPCで動かせる軽量モデル ・26B-A4B:ハイエンドマシンで動かす高性能モデル いずれも非常に実用性が高いモデルとなっており、とりあえず動かせるものを選べばOKです。 Apache 2.0ライセンスで提供されており、個人利用はもちろんのこと、商用での利用も可能です。 専門サイトによる評価も高い「Gemini 3の研究・技術に基づいてローカルLLMの限界を引き上げるようにGemma 4を開発した」とGoogleは述べていますが、これは煽り文句ではありません。 AI評価サイト「Arena.ai」における一部ローカルLLMの性能評価グラフ。gemma-4-31B・gemma-4-26B-A4Bはサイズに対する評価が高くなっているImage: GoogleAI評価サイト「Arena.ai」で
はじめに「AIは速度をフロントローディングし、失敗をバックローディングする」 Opsera社が25万人のエンジニアを分析した2026年版ベンチマークレポートに記されたこの一文は、AI時代のソフトウェア開発組織が直面している本質的な矛盾を的確に言い当てている(出典: Opsera AI Coding Impact Benchmark Report 2026)。93%の開発者がAIツールを使い、コーディング速度は30〜58%向上した。しかしその代償として、PR レビュー時間は441%増大し、本番インシデント数は242.7%増加し、開発者一人あたりのバグ数は54%増加した(出典: Faros AI Engineering Impact Report 2026)。 AIは組織を速くした。しかし、強くはしていない。 3つの独立した大規模調査が同じ結論を示すStanfordが10万人のエンジニアを対象
2026年4月29日にリリースされた VSCode 1.118。 今回のリリースは Github Copilot の使い方の解像度がワンランク上がる内容だった。 正直、値上げのインパクトを相殺して余りあるほどの内容だと思う。 トークンベースへの課金への移行が発表されたタイミングで、トークン効率の改善が複数入ってきたのも印象的。 個人的に刺さったものから順に紹介していく。 1. スキルの実行を別コンテキストで独立させられるようになった これ、地味に見えて本質的なアップデートだと思っている。 カスタムスキルを使い込んでいると気づくのだが、スキルが複数のツールを呼び出したり大量の参照ドキュメントを取り込んだりすると、メインのチャットコンテキストがどんどん汚染される。その結果、スキルを呼んだ後の通常の質問への回答が明らかに鈍くなったり、前のスキル実行の残滓を引きずったりする。 今回、SKILL.m
「技術に強い」会社が陥った盲点 今回の事案で、注目したいのは被害の構造だ。 適時開示には「当社の従業員のアカウントより、当社の銀行預金口座から外部の口座への送金が実行された」とある。つまり、外部からシステムに不正侵入されたわけではない。悪意ある第三者から虚偽の送金指示を受けた従業員が、自らの手で送金操作を実行したのだ。 IT企業は、Webサービスの脆弱(ぜいじゃく)性やサーバへの不正アクセスに対して、非常に高い水準のセキュリティを構築している。多要素認証も、チーム全体で暗黙知を共有する「コードレビュー」も当たり前だ。ところが「お金を動かすプロセス」については、驚くほどアナログで、属人的な運用が残っている場合も多い。 エンジニアリングには「バグを許さない」文化がある。しかしバックオフィスのワークフローには、その厳しさが及んでいない場合がある。デジタルサービスを事業の核とする企業が、内部統制に
フランス発のSNS「BeReal」(ビーリアル)を通じた情報漏えいが相次いでいる。 この春には、西日本シティ銀行の行員がBeRealに投稿した支店内の映像から顧客情報が流出した他、仙台市立小学校の20代女性教員が業務システムの画面を投稿して問題になった。それぞれの投稿は、閲覧した人などを経由してXに転載され、非公開情報が数百万人規模で閲覧されてしまった。 BeRealがなぜ漏えいにつながるのか。 アプリそのものは楽しいコミュニケーションツールでしかない。だが、「投稿を焦らせるUI」と「友人しか見ていない」という油断が、不適切な使い方につながっていそうだ。 友人限定の写真SNS、「2分以内に今を投稿!」通知が焦り生む BeRealは2020年にフランスで公開され、24年6月にゲーム企業Voodooが5億ユーロ(約840億円)で買収した。全世界のアクティブユーザーは2025年時点で4000万人
タスク管理アプリは便利ですが無料版だと機能制限があったり、有料プランは月額料金が必要だったりします。さらに仕事や個人情報を外部クラウドに置くことへ不安を感じる人も少なくありません。そこで無料で機能制限もなく、セルフホスト運用が可能なオープンソースのタスク管理ツール「Tududi」が公開されています。 tududi - Organize Life and Work, Self-Hosted or Hosted https://cloud.tududi.com/ chrisvel/tududi: A calm, open system for organizing life and work. Tasks, projects, notes, areas, and smart workflows - self-hosted or hosted. https://github.com/chrisv
iPhoneのmanuscriptで始めた執筆はデビュー後にScrivenerに移り、コロナ禍の最中にVS Code用プラグインnovel-writerへと移りました。それぞれ理由も愛着もある環境でしたが、この春に引っ越すことを考え始めました。 背中を押してくれたのは、AIエージェントです。 LLMを使う開発支援は、これまでもnovel-writerのリファクタリングやLLM会議システムなどで使ってきたのですが、世代が変わり、本格的なネイティブアプリケーションが作れるようになってきました。Web Viewアプリのシャンポリオンデックを試し、Swiftで作るネイティブなmacOSアプリのzenバベルやFM-Deckなど書いてみて、仕事に使うエディターも自分で作れるのではないかと思ったわけです。甘くないのは分かってるけど、ローカルAIであるApple Intelligenceをヘルパーに使える
核融合発電技術の開発は難航しており、物理学者や技術者たちが数十年以上核融合発電の実現に向けて取り組んできましたが、まだ実用化のめどは立っていません。そうした状況の中、これまでに3億ドル(約480億円)を調達している核融合発電スタートアップのZap Energyが「前例のない規模の電力需要がある」ことを理由に、既存の原子力発電と同じ核分裂反応を利用する小型・モジュール式の先進原子炉事業に参入することを発表しました。 An integrated nuclear future: fission today, fusion tomorrow. | Zap Energy https://www.zapenergy.com/announcement Fusion power startup Zap Energy pulls a partial pivot, adding nuclear fission
Apple、「Vision Pro」を事実上断念か ー 売れ行き低迷で新モデルの開発は停止 2026 4/30 MacRumorsが、Appleは「Vision Pro」を事実上断念したようだと報じています。 「Vision Pro」は昨年10月にM5チップ搭載モデルへとアップデートされましたが、その他のハードウェアの変更はなく、消費者の関心は依然として低い状況が続いていました。 「Vision Pro」は初代モデルの発売当初から人気が低く、総販売台数は約60万台に留まっているとのことで、関係者によると、返品率は異常に高く、他のApple製品と比べても突出している模様。 Appleはすでに「Vision Pro」の開発を停止しており、チームも社内の他部門へ再配置されているようで、「Vision Pro」の開発チームの一部人員はSiri開発に携わっており、「Vision Pro」の責任者のM
ドイツ人エンジニアのニッキー・ライナート氏が、Anthropicの生成AIアシスタントであるClaudeの有料プランを解約した理由を自身のブログにまとめています。 Why I Cancelled Claude: Token Issues, Declining Quality, and Poor Support - Nicky Reinert https://nickyreinert.de/en/2026/2026-04-24-claude-critics/ ライナート氏はコーディングアシスタントのClaude Codeを利用し始めた頃を思い出しながら、「最初の数週間はとても快適でした」と語っています。動作は速く、トークンの付与量も妥当で、品質も良好だったそうです。しかし、使い始めの頃に感じた熱意は「急速に薄れてしまった」とライナート氏は語っています。 事の発端は、ある日の朝、Claude
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く