サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GWの過ごし方
xenospectrum.com
TL;DR コードエディタZedは、Electronの限界を克服。RustとGPU描画で高速化、AI機能も搭載。1.0リリースは完成ではなく、技術的賭けの成功を示す。 コードエディタは「テキストを速く表示するだけのツール」のはずだった。それがいつの間にかブラウザエンジンを丸ごと内包し、画面を描くたびにDOMと格闘し、スクロールのたびにCPUが唸るような代物になった。VS Codeを使う開発者の多くが「重さ」を許容コストとして払い続けてきたのは、拡張機能と生態系の引力が大きすぎたからだ。その現状に、かつてAtomとElectronを生み出した当事者たちが正面から挑んだ。2026年4月29日のZed 1.0リリースが意味するのは、「完成」ではなく、5年間の技術的賭けが「通用する」と証明されたということだ。 01.Atomの反省から始まった5年:GPUとRustを選んだ理由02.1.0が意味する
TL;DR Pixel 11のSoC「Tensor G6」はTSMCの2nmプロセス採用。最新製造技術と古いGPUを組み合わせ、AI処理を優先。コスト抑制と端末内AI強化のため、GPU性能を犠牲に。 ハイエンドスマートフォンの価格が20万円を超える中、ユーザーは次世代機に価格に見合う明確な進化を求めている。2026年夏に登場が見込まれるGoogleの「Pixel 11」シリーズも、購入のハードルが上がりつつある。Android Authorityのリーク報告によると、次期SoC(System on a Chip)「Tensor G6」はTSMCの最先端2nmプロセスで製造される。しかし、グラフィックス処理を担うGPUには2021年の設計が採用されるという。最先端の製造技術と古いGPUを組み合わせる設計の背景を紐解く。 01.2nmプロセスの採用と7コアへ削減されたCPUの仕様02.なぜ新し
TL;DR ps5-linux-loaderにより、特定の旧ファームウェア搭載PS5でLinuxをネイティブ起動できるようになった。CPU/GPU制御やM.2 SSD起動にも対応し、PS5を高性能Linux PCとして使える可能性を示した。一方で対象機種は限られ、DRMや閉鎖的エコシステムをめぐる「ハードウェア所有権」の問題も浮き彫りにしている。 PlayStation 5のハードウェアポテンシャルは、これまでSonyの厳格なファームウェアとDRM(デジタル著作権管理)によって強固に封じ込められてきた。しかし、その厚い壁がついに公式な形で突破された。著名なセキュリティ研究者であるAndy Nguyen氏(theflow)を中心とする開発チームが、PS5上で完全なLinux環境をネイティブ動作させるためのペイロード「ps5-linux-loader」および関連ツール群をGitHub上で一般公
TL;DR 熱電発電デバイスの形状をAI的なトポロジー最適化で設計し、従来とは異なる砂時計型などの構造を導き出した。3Dプリントで作製したPbTeデバイスでは、従来型より最大8.2倍の性能向上と5.45%の効率を実証した。材料改良だけでなく「形状設計」が、廃熱回収技術の性能向上に大きく効くことを示した。 宇宙空間の絶対零度に近い闇を切り裂き、孤独な航海を続ける探査機ボイジャー。その内部で静かに脈打ち、探査機に命を与え続けているのは、放射性同位体の崩壊熱と宇宙空間の極寒との間に生じる温度差から電力を生み出す「熱電発電」である。タービンも、モーターも、一切の可動部品を持たないこの美しい物理的機構は、半世紀以上にわたってその過酷な環境での確固たる信頼を証明してきた。しかし、この宇宙で磨かれた技術を、私たちが暮らす地球上の日常的な空間へと降ろそうとする試みは、常に目に見えない高い壁に阻まれてきた。
石炭と脱炭素化は、長く相互排他的な概念として扱われてきた。国際気候交渉の場では「石炭の段階的廃止」が繰り返し議題に上り、IPCCのシナリオのほぼすべてが2030年代から2040年代にかけての石炭全廃を前提としている。その文脈の中に、中国深センから一つの研究発表が届いた。 2026年4月26日、深センの謝和平(中国科学院アカデミシャン)が率いる研究チームが、「零炭素排出直接石炭燃料電池(ZC-DCFC: Zero-Carbon Direct Coal Fuel Cell)」の開発成果を学術誌『Energy Reviews』に発表した。石炭を燃焼させることなく、電気化学反応によって直接電気を生成し、その過程でCO₂を排出しないとされるこのシステムは、「石炭=CO₂排出」という半世紀以上にわたる前提に対して、科学的な異議を突きつけた。だが、この報告を楽観的に受け止めることはできない。技術的突破と
ある冬の日、サンフランシスコのオフィスで、19個のピンポン玉が取引された。買い手は人間ではなく、人工知能(AI)だ。そのAIは、事前の短い面談を通じて主人が「5ドル以下で自分自身への少し変わったプレゼントを欲しがっている」という微細な欲望を読み取り、自律的に出品者と交渉し、見事にそれを勝ち取ったのだ。「19個の可能性の球体が私の元へやってくるなんて、宇宙の理にかなっている気がします」というユーモア溢れるメッセージとともに。 この微笑ましいエピソードの裏には、次世代経済における恐るべき未来の予兆が隠されている。人類の経済活動は長らく、需要と供給の荒波の中で人間自身が汗をかき、値踏みし、論理と感情を駆使して交渉を重ねることで成立してきた。しかし今、巨大な計算資源に裏打ちされた言語モデルたちが、私たちの代理人として市場に放たれようとしている。彼らが人間の代わりに全自動で商取引を行う「エージェント
TL;DR AIバグレポートが引き金となり、Linux 7.1で古いコードが大量削除された。ISDNやバスマウスなど、1990年代のレガシー技術が対象。メンテナーの負担増が削除を加速、今後のAIとOSSの関係に影響。 古いLinuxドライバーを「使わなくなったから削除しよう」という話は、これまでも何度か繰り返されてきた。だが今回の引き金は、人間の開発者ではなくAIだった。LLM(大規模言語モデル)ツールを使って自動生成されたバグレポートが、実際には誰も使っていない古いコードに関して大量に届くようになり、ボランティアのメンテナーたちが対応を強いられる事態が続いた。そのコストが臨界点を超えたとき、「ではいっそ消してしまおう」という判断が下された。Linux 7.1では計138,161行のコードが削除され、1990年代の通信・ハードウェア関連サブシステムが一挙に姿を消したのだ。 01.ISDNか
TL;DR WSL9xはGPFを悪用し、Win9x上でLinuxを動作。仮想化なしでLinuxカーネル6.19を稼働させる。2つのカーネルがリング0で同居し、システム全体が道連れリスク。 一般保護違反(General Protection Fault)とは本来、OSが不正な命令を出したプロセスを強制終了するための安全機構だ。Hailey Somerville氏が公開した「WSL9x」は、その安全機構を逆手に取り、Linuxのシステムコール処理路として動かす。30年前のレガシーOSであるWindows 95上で、仮想化もエミュレーションもなしにLinuxカーネル6.19が動作する。Intel 486プロセッサでも稼働するこのアーキテクチャは、いかにして越えられないとされた構造的制約を破ったのか。例外処理を悪用する三段構えの転用機構と、リング0で二つのカーネルが同居するリスクを解説する。 01
売上や在庫の数字を見たいだけなのに、結局は分析担当やDBAに依頼しなければならない。そんな待ち時間をなくす道具として、自然言語でデータベースを叩く「Text-to-SQL」が再び注目を集めている。しかも今回は大規模言語モデル、すなわちLLM(Large Language Model)が加わり、AWSやSnowflakeまで公式機能として前面に押し出し始めた。では、SQLを知らない現場ユーザーがそのまま頼って良い段階に来たのだろうか?情報を追ってみると、まず恩恵を受けるのは一般社員より分析者やDBAであり、最大の壁は構文生成ではなく「質問の意味を正しく定義すること」に残っていることが見えてくる。 01.SQL生成ではなく「意味の翻訳層」として売り出されている02.ボトルネックはSQL文法にない――76%の壁を作っているのは質問の曖昧さだ03.必要なのは全自動化より、問い返せるインターフェース
TL;DR 半導体設計は複雑で高コスト、一部企業が独占。Verkor.ioのAIが219語からCPUを自律設計。人間介入なしで製造用レイアウトまで12時間で完了。 半導体設計の世界は、人類が構築した最も過酷で複雑な知的労働の舞台である。親指の先ほどのキャンバスに数百億のトランジスタを配置し、電流のタイミングをピコ秒単位で制御する。その工程は、アーキテクチャの定義、論理回路(RTL)の記述、果てしないシミュレーションによる機能検証、そして物理的な配置配線(プレース&ルート)と多岐にわたる。一度製造ラインに乗せれば、たった一つのバグが数千万ドルの費用を水泡に帰す。この圧倒的なプレッシャーと複雑さが、最先端チップの開発に数百人のトップエンジニアと数年の歳月、そして4億ドルを超える莫大な予算を要求してきた。プロセスの微細化が物理的な限界に近づく中、回路の集積度は高まり続け、それに伴う設計と検証のコ
タスクマネージャー(Task Manager)でCPU使用率が「100%」と表示されているのに、動画のエンコードもファイルコピーも問題なく動く。個別のプロセスの数値を上から足し合わせても、合計値がどこにも一致しない——そんな奇妙な経験をしたことはないだろうか。その違和感はユーザー側の勘違いではない。1990年代のシングルコア時代に書かれた計算ロジックと、ターボブーストや動的周波数スケーリングを駆使する現代のプロセッサの挙動がズレていた結果だ。初代開発者であるDave Plummer氏が明かした「CPUメーターの数値は直近の死亡記事に過ぎない」という告白と、MicrosoftがWindows 11で30年ぶりに実施した計算式の刷新を見ていきたい。 01.「100%の矛盾」を引き起こしたターボブーストと計算方式の限界02.リアルタイム表示ではなく「直近の死亡記事」が生まれる理由03.85KBに
外付けSSDをWindowsとLinuxの両方で使おうとすると、転送が遅いか、最悪データが壊れるかという二択を迫られてきた。FUSE(Filesystem in Userspace)ベースの互換ツールはカーネルとユーザースペース間のコンテキストスイッチがボトルネックとなり、NVMe SSDが本来持つ速度を引き出せない。ネイティブ対応を謳った後継ドライバも更新が止まり、高負荷I/Oで破損するリスクが残ったままだった。この四半世紀続いた妥協が、2026年夏リリース予定のLinux 7.1で動く。カーネル開発者のNamjae Jeon氏が4年をかけて書き直した新ドライバがメインラインに統合され、Linus Torvalds氏が「ntfs resurrection(NTFSの復活)」と評した。 01.置き去りにされた「孤児」ドライバの限界02.マルチスレッド環境で最大110%の高速化を達成03.旧
2025年10月、Windows 10のサポートが終了した。手元のPCがWindows 11の厳しいハードウェア要件を満たさなければ、セキュリティアップデートを受け取れず、ランサムウェアやマルウェアの標的にさらされることになる。ユーザーは高額な費用を支払って新しい機材を購入するか、危険を承知で使い続けるかの二択を迫られているが、そんな中、オープンソースで開発されたZorin OSは、Windowsの操作体系と高い互換性を提供し、累計330万ダウンロードを記録して移行の受け皿として機能している。 01.TPM 2.0要件が引き起こす大量の電子廃棄物とセキュリティリスク02.240のWindowsアプリを直接サポートする自動識別システム03.広告の排除とアップデートの自由がもたらすローカル環境の制御権3.1デスクトップから広告を完全排除3.2クラウドアカウントなしで全機能が使える3.3更新タイ
半導体ロードマップにおいて「スキップ」は通常、後退を意味する。だがAppleが検討しているとされるA16(1.6nm)の迂回は、むしろその逆だ。TSMCが2028年後半の量産を計画するA14(1.4nm)に直行することで、Appleはロードマップの最前線を優先的に確保しようとしているとみられる。その先には、2029年の試験生産を目指す「サブ1nm」世代A10も控える。現在64%の市場シェアを握るTSMCと、その最上位顧客であるAppleの関係が、今後の半導体覇権の構図を決定づけようとしている。 01.AppleがA16をスキップする選択の意味:なぜ「飛ばす」ことが優位になるか02.48.5億ドルを注ぎ込むA14ファブと2028年量産計画03.2029年のサブ1nm試験生産:「物理の壁」との戦い04.Samsungとの歩留まり格差と覇権の行方AppleがA16をスキップする選択の意味:なぜ「
AIコーディングツールを使っているなら、その足元が揺らいでいる可能性がある。Claude Code、Cursor、Windsurf——これらが共通して依存するMCP(Model Context Protocol)に、アーキテクチャレベルの設計欠陥が発見されたというのだ。200以上のオープンソースプロジェクト、1億5000万超のダウンロード、7000以上の公開サーバーを抱えるエコシステム全体が影響を受ける。問題の核心は、コーディングミスではない。Anthropicの設計判断そのものだ。そしてAnthropicはOx Securityの報告を受けながら、「expected behaviour(想定された動作)」と回答し、修正を拒否している。これが何を意味するか——開発者がこの事実を知らないまま構築を続けているという現実だ。 01.MCPとは何か:1年で業界標準になった「AIの共通言語」02.S
エージェント型AIの急速な普及が、AI業界の計算資源を食い尽くしつつある。OpenAIのAPIが処理するトークン量は2025年10月の毎分60億から、2026年3月末には毎分150億へと2.5倍に膨れ上がったとWall Street Journal紙が報じている。この爆発的な需要増加に対し、GPU製造やデータセンター建設は数年単位のリードタイムを要する。結果として今、AI企業は自社製品の取捨選択を迫られ、クラウドGPUの価格は2ヶ月で48%急騰し、安定稼働すら維持できない企業が現れ始めた。AI業界は、限られた計算資源をどの製品に配分するかを選ばなければならない「コンピュート配給制」の時代に突入している。 01.ARR 300億ドルでも稼働率99%を割るAnthropic02.OpenAIがSoraを切り捨てた計算式03.GPU価格48%急騰が映し出す供給側の限界04.2029年まで解消しな
夜空を見上げるとき、私たちは静寂に包まれた不動の宇宙を見ているわけではない。光の速度で駆け抜ける情報の束を受け取りながら、猛烈な勢いで四方八方へと引き伸ばされていく時空のダイナミズムを目の当たりにしている。人類は一世紀近くにわたり、この宇宙がどれほどのペースで膨張しているのかを測り続けてきた。天文学者たちが「ハッブル定数」と呼ぶこの数値は、宇宙の年齢、構造、そして最終的な運命を決定づける究極の暗号である。しかし今、最先端の観測技術が導き出したその暗号の解読結果が、現代宇宙論の根幹を揺るがす事態を引き起こしている。国際チーム「H0DN Collaboration」がかつてない精度で算出した局所宇宙の膨張速度は、理論的な予測を完全に裏切り、私たちがまだ見ぬ未知の物理法則の存在を強く匂わせている。 01.宇宙の膨張速度をめぐる一世紀の探求と決定的な亀裂02.一本道の梯子から強靭な網の目へ。測量技
オンラインデータは概して安全である。パスワードやその他の保護手段を適切に管理していれば、それは世界中のスーパーコンピュータがすべて結集して1万年かけても解読できないほど強固な金庫に守られていると考えてよい。 しかし先月、GoogleをはじめとするいくつかのグループがNew kind of computer(量子コンピュータ)に関する研究結果を発表した。それによれば、量子コンピュータはこれまで考えられていたよりもはるかに少ないリソースでその金庫を開けられる可能性があるという。 変化は二つの方向から迫っている。一方では、IBMやGoogleといったテクノロジー大手が、より大規模な量子コンピュータの開発競争を繰り広げている。IBMは今年中に一部の特定分野で従来型コンピュータを上回る真の優位性を達成したい考えであり、さらに強力な「フォールトトレラント」システムの実現を2029年までに目指している。
Claude APIに、エージェントが判断に詰まった瞬間だけ上位モデルへ相談できる仕組みが加わった。2026年4月9日にベータ公開された「アドバイザーツール(advisor_20260301)」は、HaikuやSonnetを主役のExecutor(実行役)に据え、Claude Opusを黒子のAdvisor(相談役)として組み合わせる設計だ。Opusはツール呼び出しもユーザー向け出力も一切行わず、Executorから問われたときのみ判断を返す。Anthropic内部の評価では、この構成でSonnet単独よりコストを11.9%削減しながら精度を2.7ポイント向上させた。「安いモデルは精度が低い」という前提を覆す実用的なアプローチが、エージェント開発の費用対効果に新しい選択肢を提示している。 01.エグゼキューターが主役、アドバイザーは黒子——従来設計の逆転02.ベンチマークが示す数値:コスト
AppleはA4チップからMシリーズまで、消費者向けシリコンの内製化で競合を圧倒してきた。しかしクラウドAI基盤においては、NVIDIAのGPUサーバーに処理能力を依存し、Googleから年間約10億ドル規模でGeminiモデルのライセンスを取得しているとされるなど、他社に依存する構造が続いてきた。 その状況に変化の兆しがある。Appleが「Baltra」というコード名のAI推論専用ASIC(特定用途向け集積回路)の設計を完全内製化する方向で準備を進めていると報じられている。製造は引き続きTSMCに委託するが、チップ設計の全工程をBroadcomへの依存から切り離すことを意味する。2026年下半期の量産開始を目指すこのプロジェクトは、AppleのPrivate Cloud Computeの根幹を自社技術で固める試みだ。 01.Baltraとは何か?AI推論に特化した専用チップの役割02.な
GitHub Copilot CLIに2026年4月6日、「Rubber Duck」と名付けられた実験的機能が追加された。コーディングタスクを実行するAIモデルとは別ファミリーのモデルを呼び出し、成果物を批評的にレビューさせる仕組みだ。Anthropicのモデルがオーケストレーター(作業担当)として動いているとき、OpenAIのGPT-5.4がRubber Duckとしてクリティーク(批評的レビュー)役を担う。GitHubの社内評価では、Claude Sonnetにこの組み合わせを適用することで、SonnetとOpus単体の性能差の74.7%が縮小したとされる。「同一モデルが自らの成果物をレビューすると、同じ学習バイアスに縛られる」という設計思想は、AIコーディングツールの精度向上をめぐる議論に新たな視点を持ち込んでいる。 01.AIが自分の盲点を見抜けない理由02.Rubber Duck
1970年代、Stephen Hawking(スティーブン・ホーキング)が導き出した一つの計算結果が、現代物理学に深刻な亀裂をもたらした。量子力学と一般相対性理論を組み合わせた半古典的アプローチにより、ブラックホールは完全な「黒」ではなく、微弱な熱放射(ホーキング放射)を放ち、最終的には蒸発して消滅することが示されたのである。この発見は直ちに物理学の根幹を揺るがす難問を生み出した。それが「ブラックホール情報パラドックス」である。量子力学の基本原理であるユニタリティ(情報保存の法則)は、系に落ち込んだ量子情報が決して失われないことを要求する。だが、ブラックホールが完全に蒸発してしまうのであれば、そこに飲み込まれた物質の情報は宇宙から完全に消え去ることになる。 さらに、素粒子物理学においても長年の未解決問題が存在する。標準模型において素粒子に質量を与えるヒッグス場の真空期待値(電弱スケール)は
ゲームのVRAM消費量は過去5年間で指数関数的に増え続けてきた。4K解像度のテクスチャが当たり前になり、PBR(物理ベースレンダリング)マテリアルが複数チャンネルのデータを積み重ねるなか、GPUメーカーは消費者向け製品のVRAM容量を抑制しつつ、上位モデルとの差別化を維持してきた。RTX 3060が12GBを搭載していたのに対し、RTX 4060とRTX 5060が8GBに留まったのはその典型だ。現行のテクスチャ圧縮技術が前提とする「多く積めば多く使う」という構造が変わらない限り、この路線はゲーマーへの不満を蓄積させ続ける。 GTC 2026でNVIDIAが改めて詳細を公開したNeural Texture Compression(NTC)は、この前提そのものに切り込む技術だ。Tuscan Villaシーンのデモでは、従来のBCN(Block Compressed N-format)テクスチ
次のページ
このページを最初にブックマークしてみませんか?
『XenoSpectrum — テクノロジー・サイエンス・カルチャーのニュース』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く