iCloudやOneDriveなどのクラウドサービス全盛の現在、家庭用データ管理やストレージの選択肢として、あるNAS(ネットワークストレージ)が注目を集めています。 その注目製品は、UGREENの「 NASync」シリーズです。UGREENはスマホ用アクセサリーで知られていますが、このNASはこれまで海外で展開してきたものです。国内でもクラウドファンディングGREEN FUNDINGの先行販売でなんと6億6600万円以上もの支援金額を集めるなど、ガジェット好きの関心の高さが話題となりました。 では、なぜ「設定が大変そう」という印象が大きいNASのなか、これほど注目を集めたのでしょうか? 実際に体験してみてわかったのは: とにかく設定や操作がラクで月額料金が不要 クラウドサービスを使い分ける必要がなくなる からです。「初期コストだけでずっと使える」&「データを1ヵ所にまとめられる」=とにか
注目すべきは、clang-19によるビルドがclang-18に比べて約9~12%ほど遅くなっている点だ。一方tail-callインタープリタはclang-18よりやや速いか、あるいはほぼ同等の速度を示す。つまり、clang-19同士で比較すると大きな速度改善とも言えるが、clang-18と比較すると当初の「10~15%高速化」という数字ほどの大きな改善ではないことがわかる。 LLVM 19における問題 こうした結果を引き起こしたのは、LLVM 19のある特性だ。 クラシックなバイトコードインタープリタは以下のような構造を持つことが多い。 while (true) { opcode_t this_op = bytecode[pc++]; switch (this_op) { case OP_IMM: { // push an immediate onto the stack break; }
JSer.info #728 - React Aria March 5, 2025リリースされました March 5, 2025 Release – React Spectrum Releases Toast/Tree/Virtualizerコンポーネントを追加、AutocompleteをMenu/Selectなどと組み合わせて利用できるようになりました。 また、<Pressable>/<Focusable>の追加、usePressのリファクタリングなどが含まれています。 その他には、ドキュメントをTailwind v4に対応など Firefox 136.0リリースされました Firefox 136.0, See All New Features, Updates and Fixes Firefox 136 for developers - Mozilla | MDN HTMLのautoc
TypeScriptはJavaScriptに型を組み込んだ言語で、Microsoftが開発・メンテナンスを行っています。2025年3月11日、Microsoftが「TypeScriptのコンパイルを10分の1の時間で行う新たなツールを開発中で、2025年内のリリースを目指している」と発表しました。 A 10x Faster TypeScript - TypeScript https://devblogs.microsoft.com/typescript/typescript-native-port/ A 10x faster TypeScript - YouTube TypeScriptでプログラムを実行するにはJavaScriptへのコンパイルが必要ですが、記事作成時点ではコンパイラがTypeScriptで実装されており、大規模なプロジェクトではコンパイルに長い時間が必要です。そのため、
「全部YAMLに書き直せ」と言われた月曜日の朝... 先日、上司から「全APIドキュメントをJSONからYAMLに書き換えて」と突然言われた時のことを思い出します。その瞬間の私の顔は...😱 「マジか...何百ものAPIを全部書き直すのか...また週末出勤確定じゃん...」 でも意外なことに、この作業は思ったほど大変ではなく、むしろYAMLの良さを発見するきっかけになったんです!今日は、JSONとYAMLの 決定的な違い と、 簡単に楽しく 変換する方法をシェアしたいと思います! JSON vs YAML:フォーマット対決! 変換方法の前に、まずこの2つのフォーマットの違いを見てみましょう。「案ずるより産むが易し」というように、実際に理解すれば怖くありません! 1. 構造表現:中括弧 VS インデント JSONとYAMLはデータ構造の表現方法が全く違います。JSONは真面目なサラリーマン
Sakana AIは3月12日、AIシステム「The AI Scientist」の改良版「v2」が書いた論文が、AIに関する国際カンファレンス「ICLR 2025」(International Conference on Learning Representations)のワークショップで査読を通過したと発表した。AI生成の論文が査読をクリアするのは世界初という。 The AI Scientistでは、人間が介入することなく、研究アイデアの立案から実験、論文執筆などを全自動で行う。今回の論文は、The AI Scientistの改良版である「The AI Scientist-v2」(v2)が生成した。なおv2の詳細は今後リリース予定。 検証はICLRの主催者と協力して行った。v2が一貫して生成した論文を3本用意。査読者にAIが生成したものと伝えず、査読を実施したところ、3本のうち1本の論文
Samuel Olusola Software engineer (JS stack, GoLang incoming…) and student of computer science at the University of Lagos. Introduction If you are writing a backend application in Node.js and you want to send HTML back to the clients interacting with it, then you must find a way to “mix in,” or interpolate, the processed data into the HTML files you are sending. For simple data interpolation and te
While we’re not yet feature-complete, these numbers are representative of the order of magnitude performance improvement you’ll see checking most codebases. We’re incredibly excited about the opportunities that this massive speed boost creates. Features that once seemed out of reach are now within grasp. This native port will be able to provide instant, comprehensive error listings across an entir
自分はメインのエディタとしてZed(https://zed.dev/)を使っています。キビキビ動くところや、Vimのサポートが充実していることなど、Zedの良いところはたくさんあるのですが、自分が一番気に入っているのがMulti Bufferと呼ばれる検索機能です。 この機能は、複数のファイルやバッファを同時に検索し、結果をまとめて表示することができます。動画のように Zedだと g/ + 検索ワード + enter + hjkl + g+space といった具合にキーボードから手を離すことなく目的のコードをすばやく検索することができます。コードを頻繁に検索する自分にとっては欠かせない機能です。 zedの検索 一方で、最近はClineやCursorなどのVSCodeベースのAI支援エディタを使うケースも出てきました。この際に非常にストレスなのがこのコード検索です。 もどかしいコード検索 こ
本記事では、RAGの幻覚(ハルシネーション)を検出するための「LettuceDetect」という手法について、ざっくり理解します。株式会社ナレッジセンスは、エンタープライズ企業向けにRAGを提供しているスタートアップです。 この記事は何 この記事は、RAGのハルシネーションを高速に検出するための「LettuceDetect」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合はこちらの記事もご参考下さい。 本題 ざっくりサマリー LettuceDetectは、RAGの幻覚を検知するための新しい手法です。LettuceDetect を使うことで、最近流行している「LLM-as-a-Judge」より圧倒的に速く、でも、ほぼ同じ性能で、幻覚を検知できます。KR Labsとウィーン工科大学の研究者らによって2025
近年、高度な生成AIや大規模言語モデルが多数登場していますが、それらを動作させるには高価なGPUなど、相応の機器が必要となります。しかし、Intelが提供するPyTorch用エクステンションの「IPEX-LLM」では、Intel製ディスクリートGPUなどでGemmaやLlamaなどのAIを動作させることが可能です。今回、そんなIPEX-LLMがDeepSeek R1に対応したことをIntelが発表しました。 ipex-llm/docs/mddocs/Quickstart/llamacpp_portable_zip_gpu_quickstart.md at main · intel/ipex-llm · GitHub https://github.com/intel/ipex-llm/blob/main/docs/mddocs/Quickstart/llamacpp_portable_zip
オチ code-serverをいれる claude codeをいれる 様子 あらすじ 我々はスマホでごろ寝コーディングがしたい(主語がでかい)。 しかしながらスマホでコードをポチポチするのは苦行であり、もっと楽にやりたい、なんなら音声入力でどうにかしたい。 となると、昨今はやりのAI Agentをつかったコーディングが選択肢にあがる。 すでにDevinやReplit がそういった体験を提供しているが、どちらも結構お高いし、「本当に俺はスマホでそんなにソースコード書くのか?」とか、「金はともかく、GitHubやSlackと連携させるのか?(Devin)」とか、「コードが読みにくい(Replit)」とか「PHPを書けない…だと…?(Replit)」という様々な問題があって自分には微妙だった。 そこで私が試したのがcode-serverとclaude codeだった 概要 code-server
tl;dr OpenAI API を無料で毎日 100 万トークンまで使えるようになったよ 私の手元では Tier 4 にあげた翌日に使えるようになったよ データが学習に使われることに同意する必要があるよ 無料利用枠はプロジェクトごとの適用なので専用のプロジェクトを作るといいよ そもそもなんの話? OpenAI API は本来は有料で利用するものですが、特定の条件を満たした方のみ 2025 年 4 月 30 日まで毎日 100 万トークンまで無料で使えるようになるというオファーの話です。 特定の条件というのは明らかにされていませんが、おそらく Tier 4 まであげること、あるいは同等の利用履歴があることが必要だと思われます。「無料」と喧伝される方もいらっしゃるようですが、一円もかけずに使うことは困難かと思われます。ゼロから Tier 4 まであげるには $250、日本円にして四万円弱かか
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く