並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 1561件

新着順 人気順

Memoryの検索結果241 - 280 件 / 1561件

  • How we built JSR

    We recently launched the JavaScript Registry - JSR. It’s a new registry for JavaScript and TypeScript designed to offer a significantly better experience than npm for both package authors and users: It natively supports publishing TypeScript source code, which is used to auto-generate documentation for your package It’s secure-by-default, supporting token-less publishing from GitHub Actions and pa

      How we built JSR
    • OpenAI、ChatGPTに会話を記憶させる「Memory」テスト開始 初期設定はオン

      米OpenAIは2月13日(現地時間)、ChatGPTに会話を記憶させる機能「Memory」のテストを開始したと発表した。チャットの内容を覚えさせることで、情報を繰り返す必要がなくなる。 例えば、会議の要約を頼む際、見出し、ポイントの箇条書き、最後のまとめを含ませるよう指示すると、以後はそう指定しなくてもそのフォーマットで要約するようになる。 こうした指示は昨年7月に追加された「カスタム指示」にまとめておくこともできる。 テスト段階ではこの機能は初期設定でオンになっているが、設定でオフにすることも可能。 設定は、画面左下のアカウント名→[設定]→[Personalization]→[Memory]で行う。

        OpenAI、ChatGPTに会話を記憶させる「Memory」テスト開始 初期設定はオン
      • Java 22新機能まとめ - Qiita

        Java 22が2024/3/19にリリースされました。 https://mail.openjdk.org/pipermail/jdk-dev/2024-March/008827.html The Arrival of Java 22! LTSではなく正式採用された機能も少ないですが、Gathererは出番も多そうなAPIなのでチェックしておきましょう。 また、非互換性として、Javaソースの直接実行でパッケージとディレクトリの対応が厳しくなっているので注意が必要です。 JDKをインストールせずに言語やライブラリの新機能を試したい場合にはJava Playgroundが便利です。 https://dev.java/playground/ Samplesに新機能のサンプルがあります。 資料 詳細はこちら JDK 22 Release Notes Java SE 22 Platform JSR

          Java 22新機能まとめ - Qiita
        • Googleがリアルタイムに高精度なレンダリングを実現する新技術「SMERF」を発表

          画像や映像から立体的なイメージを生み出せる「NeRF(Neural Radiance Fields:ニューラル輝度場)」や「MERF(Memory-Efficient Radiance Fields:メモリ効率のいい輝度場)」をさらに発展させ、センチメートル単位の精度のレンダリングを行いつつも必要スペックはMERF並みな「SMERF」という技術を、Googleの開発者チームが発表しました。 SMERF https://smerf-3d.github.io/ どういった技術なのかは以下の動画を見るとわかります。 SMERF: Streamable Memory Efficient Radiance Fields for Real-Time Large-Scene Exploration - YouTube SMERFを開発したのはGoogle DeepMindのダニエル・ダックワース氏ら。S

            Googleがリアルタイムに高精度なレンダリングを実現する新技術「SMERF」を発表
          • PerformanceResourceTiming API で HTTP Cache のヒット率を知る - Repro Tech Blog

            はじめに こんにちは、Repro Booster という製品の開発責任者/プロダクトマネジメントを担当しているEdward Fox(edwardkenfox)です。 WebサイトやWebアプリケーションの表示速度を考える上では、キャッシュの活用はとても大事なテーマです。一口にキャッシュといっても、Webの文脈だけで見ても様々なレイヤーや用途のキャッシュが存在します。今回は昔ながらのキャッシュ、いわゆる HTTP Cache に的を絞り、HTTP Cache のヒット率について考えてみたいと思います。 さまざまなキャッシュレイヤー 前述のように、Webにおけるキャッシュには用途やレイヤーの異なる様々な種類のものが存在します。Webサイト/Webアプリケーションを開発する上で気にかけるべきものは、おおよそ次のようなものが該当するでしょう。 HTTP Cache (ブラウザキャッシュ) Cach

              PerformanceResourceTiming API で HTTP Cache のヒット率を知る - Repro Tech Blog
            • Amazon ElastiCache Serverless for Redis and Memcached is now available | Amazon Web Services

              AWS News Blog Amazon ElastiCache Serverless for Redis and Memcached is now available Today, we are announcing the availability of Amazon ElastiCache Serverless, a new serverless option that allows customers to create a cache in under a minute and instantly scale capacity based on application traffic patterns. ElastiCache Serverless is compatible with two popular open-source caching solutions, Redi

                Amazon ElastiCache Serverless for Redis and Memcached is now available | Amazon Web Services
              • 第777回 Raspberry Pi Zero 2 WにUbuntuサーバーをインストール | gihyo.jp

                世界的なパンデミックと前後して発生した「半導体不足」もようやく出口が見えてきました。まだまだ足りない状態でありますが、「⁠全然ない」という状況は脱しつつあるようです。これは教育向けからホビー用途・IoT・産業用に至るまで幅広く使われるようになったRaspberry Piについても同じで、一時期ほとんど手に入らない状態ではありました。しかしながら最近は、モデルによっては普通にもしくは運が良ければ購入できる状態になっています。 今回はリリース後もなかなか入手できない状態が続いていた、Raspberry Pi Zero 2 WにUbuntuをインストールしてみましょう。 図1 高性能でフットプリントが小さいRaspberry Pi Zero 2 W Wi-Fi/BTに対応しUbuntuも使えるRaspberry Pi Zero 2 W Raspberry Piには様々なモデルが存在します。そのう

                  第777回 Raspberry Pi Zero 2 WにUbuntuサーバーをインストール | gihyo.jp
                • ノーベル経済学賞を受賞したゴルディン博士の論文|ゆきと

                  2023年のノーベル経済学賞は、ハーバード大学のクラウディア・ゴルディン博士に授与されました。 ノーベル経済学賞に男女間の格差是正など研究のゴールディン氏 「男女の賃金格差」という男女論ど真ん中の研究だったということで、ツイッター男女論界隈は大いに沸き立ったようです。 しかしながらその解釈は個々に異なっており、ツイッターではフェミニスト・反フェミニスト双方が「ノーベル賞受賞者がフェミニズム or アンチフェミニズムを支持した!」とでもいうように色めき立つという大混乱の様相を呈しております。(スクショ引用しようと思いましたが角が立ちそうなのでやめておきます。) しかし、何名かの識者が指摘しているように「テキスト」を読まずに物事を判断したり、批判したりするのは適切ではないでしょう。そこで今回は、このノーベル賞の対象となった研究がどのようなものであったか、またそこからどのようなことが考えられるか

                    ノーベル経済学賞を受賞したゴルディン博士の論文|ゆきと
                  • pt-online-schema-change の実行が必要かどうか判断するタイミングをより早くした話 - Repro Tech Blog

                    Repro では Aurora MySQL を使用しています。いくつか数千万行を越えるデータを持つ大規模なテーブルもあります。 大規模なテーブルのスキーマを変更するときは pt-online-schema-change1 を使用していますが、今回はその必要性を判断するタイミングを早めた話です。 pt-osc が必要になる理由等は次の記事が詳しいです。 - pt-online-schema-changeの導入時に検討したこと、およびRailsアプリとの併用について - freee Developers Hub 解決したい課題 Repro では Rails アプリケーションが管理画面や API を提供しています。これらについて、目的別に複数の環境を用意しています。 member: 主に管理画面の動作確認目的で開発者が自由に使ってよい環境 いくつかのミドルウェアは dev_staging と共用

                      pt-online-schema-change の実行が必要かどうか判断するタイミングをより早くした話 - Repro Tech Blog
                    • LangChainの「Chain」や「Agent」を使う時は注意が必要 「Chat APIの形式を活かした実装かどうか」の確認方法

                      「LangChainソースコードリーディング/テーマ:OpenAI Chat APIを『ちゃんと』使う」は、LangChainでOpenAI Chat APIを「ちゃんと」使うことをテーマとして、ソースコードリーディングを実施する勉強会です。ここで大嶋勇樹氏が登壇。続いて、Memory機能がChat APIをちゃんと使っているかを実際のソースコードから確認します。 LangChainにはなぜMemoryという機能があるのか 大嶋勇樹氏:続いて、OpenAI Chat APIを「ちゃんと」使うには、ということをもう少しやっていこうと思います。 ここではLangChainのMemory機能を扱おうと思いますが、LangChainにはMemoryという機能があります。なぜそんな機能があるのかの背景からいきます。 そもそも、LangChainなしのOpenAIのAPIというものは、前回のやり取りを

                        LangChainの「Chain」や「Agent」を使う時は注意が必要 「Chat APIの形式を活かした実装かどうか」の確認方法
                      • Macの8GB RAMは「全く役に立たない」との声

                        2023年10月31日にAppleが発表した「M3」チップ搭載「MacBook Pro」のうち、最廉価モデルはRAMが8GBしかありません。発表時には「8GBではとても足りない」との声が上がりましたが、Appleの担当者は「我々のメモリは効率化されているので他社の16GBと同等」と説明して批判を抑えようとしてきました。それでもなお、やはり8GBは8GBであり全く役に立たないとの声が愛好家から上がっています。 Apple keeps flogging 8GB of RAM for its Mac computers but it's still a dead horse | PC Gamer https://www.pcgamer.com/hardware/memory/apple-keeps-flogging-8gb-of-ram-for-its-mac-computers-but-its

                          Macの8GB RAMは「全く役に立たない」との声
                        • PyTorchやPythonなしの純粋なC言語を使用した大規模言語モデルトレーニングツール「llm.c」がリリースされる

                          AIの本体と言える大規模言語モデル(LLM)のトレーニングはほとんどの場合PyTorchやPythonを使用して行われていますが、そうしたトレーニングを純粋なC言語のみで実装したツール「llm.c」が登場しました。まだ最適化が行われておらず従来の手法に速度面では敗北していますが、GPT-2のトレーニングを行う実装を約1000行のクリーンなコードで行えています。 GitHub - karpathy/llm.c: LLM training in simple, raw C/CUDA https://github.com/karpathy/llm.c 作者のアンドレイ・カルパシー氏はOpenAIの創設グループの一員で、テスラのAIディレクターだった事もある人物です。 llm.cを使用することで、245MBの容量を持つPyTorchや107MBの容量を持つcPythonを使用せずに大規模言語モデル

                            PyTorchやPythonなしの純粋なC言語を使用した大規模言語モデルトレーニングツール「llm.c」がリリースされる
                          • 自分が Moonbit 言語について知っていること

                            I will write an English version later to give back to the moonbit community. Addition: https://gist.github.com/mizchi/aef3fa9977c8832148b00145a1d20f4b この記事はリバースエンジニアリングを含んでいる。公式の Discord サーバーで質問して得られた内容を含むが、ここに書かれたものは自分の理解であって、公式の見解ではない。 前の紹介記事では煽り気味だったので、実際に調べながら書いてみてどう感じているかという実践的な話をする。 作者と開発組織 開発母体は深センの研究組織 IDEA 元 Meta で BuckleScript | ReScript を開発していた Hongbo Zhang 氏がチーフアーキテクト。 ReScript を知らない人の

                              自分が Moonbit 言語について知っていること
                            • 【福田昭のセミコン業界最前線】 20TBのSSD、2028年には300ドル前後に。その鍵は?

                                【福田昭のセミコン業界最前線】 20TBのSSD、2028年には300ドル前後に。その鍵は?
                              • zod-to-openapiで、既存のAPI実装にOpenAPIドキュメントを後付けする | Memory ice cubes

                                昔々あるところに、既存のWeb APIの実装がありました。 それなりに実装を進めた後に、天の声が言いました。「OpenAPIのドキュメントを公開したい」と。 さて、あなたならどうする?っていうニッチな問いに対する一つの答えとして。 ルーターごと乗り換える? たとえば今回でいうと、元のAPIはCloudflare Workersにデプロイされてた。 ので、たとえばhonoとかitty-routerとか、OpenAPIのドキュメント生成ができるエコシステムが整ってるルーターに乗り換えてしまうという手がある。 https://github.com/honojs/middleware/tree/main/packages/zod-openapi hono好きなあなたに https://github.com/cloudflare/itty-router-openapi/ itty-router好きな

                                  zod-to-openapiで、既存のAPI実装にOpenAPIドキュメントを後付けする | Memory ice cubes
                                • 日本語CLIP 学習済みモデルと評価用データセットの公開

                                  はじめに 基盤モデル がAIの新潮流となりました。基盤モデルというとやはり大規模言語モデルが人気ですが、リクルートでは、画像を扱えるモデルの開発にも注力しています。画像を扱える基盤モデルの中でも代表的なモデルのCLIPは実務や研究のさまざまな場面で利用されています。CLIPの中には日本語に対応したものも既に公開されていますが、その性能には向上の余地がある可能性があると私たちは考え、仮説検証を行ってきました。今回はその検証の過程で作成したモデルと評価用データセットの公開をしたいと思います。 公開はHugging Face上で行っていますが、それに合わせて本記事では公開されるモデルやデータセットの詳細や、公開用モデルの学習の工夫などについて紹介します。 本記事の前半では、今回公開するモデルの性能や評価用データセットの内訳、学習の設定について紹介します。記事の後半では大規模な学習を効率的に実施す

                                    日本語CLIP 学習済みモデルと評価用データセットの公開
                                  • Python 3.13 gets a JIT

                                    Happy New Year everyone! In late December 2023 (Christmas Day to be precise), CPython core developer Brandt Bucher submitted a little pull-request to the Python 3.13 branch adding a JIT compiler. This change, once accepted would be one of the biggest changes to the CPython Interpreter since the Specializing Adaptive Interpreter added in Python 3.11 (which was also from Brandt along with Mark Shann

                                      Python 3.13 gets a JIT
                                    • Ruby 3.3(+YJIT)へのアップデートによるパフォーマンス変化の計測 - メドピア開発者ブログ

                                      こんにちは。サーバーサイドエンジニアの @atolix_です。 今回はメドピアで本番運用をしているアプリケーションの1つであるやくばと for Clinicにて、Ruby 3.2からRuby 3.3にアップデートを行った際のパフォーマンスの変化を計測しました。 Ruby 3.3ではYJITの大幅な改善が含まれているので、これによるアプリケーションへの影響を確認していきます。 www.ruby-lang.org gihyo.jp 前提 本記事に記載されたデータは以下の条件で計測をしています。 Rails: 7.1.3.4 YJIT有効化時のオプションは特に付与していない状態(Dockerfileから環境変数を与えて有効化) 3.2.4(+YJIT)から3.3.1(+YJIT)へのアップデート 有効化前後の1週間を比較 パフォーマンスの変化 やくばと for Clinicではモノレポのアプリケ

                                        Ruby 3.3(+YJIT)へのアップデートによるパフォーマンス変化の計測 - メドピア開発者ブログ
                                      • DRAMの生みの親,ロバート・デナード氏が逝去。ゲーム機やスマホ,電子機器に搭載されているメモリシステムのパイオニア

                                        DRAMの生みの親,ロバート・デナード氏が逝去。ゲーム機やスマホ,電子機器に搭載されているメモリシステムのパイオニア ライター:奥谷海人 メモリ用集積回路として広く使われている半導体ダイナミックメモリ(DRAM:Dynamic Random Access Memory)の基本構造を発明し,コンピュータテクノロジーの発展に大きく寄与したロバート・デナード(Robert H. Dennard)氏が,2024年4月23日に91歳で逝去していたことを,地元紙Iohudオンライン版(リンク。英語)などが報じている。 画像: Wikipedia(リンク)より 1932年にテキサス州で生まれたデナード氏は,幼少の頃には電気も届いていない一部屋の小さな学校で教育を受け,音楽の才能により奨学金を得て南メソジスト大学に入学。そこで電気工学と出会い,カーネギー工科大学(現:カーネギーメロン大学)で博士号を取得し

                                          DRAMの生みの親,ロバート・デナード氏が逝去。ゲーム機やスマホ,電子機器に搭載されているメモリシステムのパイオニア
                                        • Appleは大規模言語モデルをiPhone上でローカルに動作させることを目指している

                                          Appleの研究者が「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」と題した論文をプレプリントサーバーのarXivに公開しました。この論文では「メモリが限られたデバイス上で大規模言語モデル(LLM)の推論を効果的に行う道を開く解決策」、すなわちiPhoneなどのデバイス上でLLMを動作させるための技術が示されており、Appleは将来的にiPhone上でLLMを動作させることを目指していると考えられます。 [2312.11514] LLM in a flash: Efficient Large Language Model Inference with Limited Memory https://arxiv.org/abs/2312.11514 Paper page - LLM in

                                            Appleは大規模言語モデルをiPhone上でローカルに動作させることを目指している
                                          • 夏休みの終わりに思い出したこと | 日常イラストブログ | 赤ずきんDIARY

                                            朝、テレビの情報番組を見てたら 子供の夏休みの自由課題や 工作のインタビューをしていて その中に 遠方のお婆ちゃんの家まで、 移動の計画を自分で立てて、 電車で行ったレポートを作った子がいました そのインタビューを見て そういえば、小学生ぐらいの時、 千葉に住んでる従兄弟も ひとりで新幹線に乗って 大阪まで遊びに来てたことを 思い出しました。 多分、東京駅まで誰か大人が送っていって こちらからは新大阪まで 誰かが迎えにいってたんだと思う。 小さい頃に預けられてたからから 私も長期のお休みの時は 祖父母の家にずっと居たりしたので 記憶に残っていたのかも。 従兄弟はジャイアンツファンなんだけど 毎回、大阪に来るときは リュックの中に阪神の帽子を入れておいて 新幹線の中で帽子を変更 大阪にいる間は、 帽子を阪神にしていました。 祖父が阪神ファンだったからかなぁー? 祖父は昔、怖い人だったし 笑

                                              夏休みの終わりに思い出したこと | 日常イラストブログ | 赤ずきんDIARY
                                            • LangGraph を用いた LLM エージェント、Plan-and-Execute Agents の実装解説 - Algomatic Tech Blog

                                              はじめに こんにちは。Algomatic LLM STUDIO 機械学習エンジニアの宮脇(@catshun_)です。 Wang+’23 - A Survey on Large Language Model Based Autonomous Agents ChatGPT が発表されてからおよそ 1 年が経ち、AutoGPT, BabyAGI, HuggingGPT, Generative Agents, ChatDev, Mind2Web, Voyager, MetaGPT, Self-Recovery Prompting, OpenCodeInterpreter, AutoAgents などなど、大規模言語モデル (LLM) の抱負な知識および高度な推論能力を活用した LLM エージェント (AIエージェント) が発表されています。 直近ではコード生成からデバッグ、デプロイまで自律的に行う

                                                LangGraph を用いた LLM エージェント、Plan-and-Execute Agents の実装解説 - Algomatic Tech Blog
                                              • Announcing additional Linux controls for Amazon ECS tasks on AWS Fargate | Amazon Web Services

                                                Containers Announcing additional Linux controls for Amazon ECS tasks on AWS Fargate Introduction An Amazon Elastic Container Service (Amazon ECS) task is a number of co-located containers that are scheduled on to AWS Fargate or an Amazon EC2 container instance. Containers use Linux namespaces to provide workload isolation—and with namespaces—even though containers are scheduled together in an Amaz

                                                  Announcing additional Linux controls for Amazon ECS tasks on AWS Fargate | Amazon Web Services
                                                • 遺伝する記憶――細菌が「記憶」を数世代受け継ぐ仕組みを発見 - fabcross for エンジニア

                                                  細菌は脳や神経系を持たないが、その体験から記憶のようなものを作り、数世代にわたって受け継いでいることが明らかとなった。テキサス大学オースティン校の研究チームによると、この記憶の分子的基盤は、細胞内の鉄の濃度だという。今回の発見は、細菌による感染症の予防や対策、抗生物質耐性菌の課題解決に応用できる可能性があるという。研究成果は、『米国科学アカデミー紀要(PNAS)』に2023年11月21日付で公開されている。 これまでに、スウォーミング(細菌が群れを形成し、べん毛によって集団として表面を移動すること)を経験した細菌は、その後のスウォーミング効率が向上することが知られている。細菌にはニューロンやシナプスのような神経系はないため、その記憶は私たちの記憶とは異なり、コンピューターに保存された情報に似ている。 「細菌は脳を持っていませんが、環境から情報を収集することができます。そして、その環境に頻繁

                                                    遺伝する記憶――細菌が「記憶」を数世代受け継ぐ仕組みを発見 - fabcross for エンジニア
                                                  • DifyとローカルLLMを使用して複数のエージェントを設定して議論する方法 - Sun wood AI labs.2

                                                    注意: Modelfile の構文は開発中です。モデルファイルは、Ollamaでモデルを作成・共有するための設計図です。おススメ記事フォーマットModelfile のフォーマット:# コメントINSTRUCTION 引数インストラクション説... モデルプロバイダーの追加 モデルタイプを選択: 「ollama」を選択します。 必要な情報を入力: モデル名: llm-jp-13b-v2 Base URL: http://host.docker.internal:11434 Completion Mode: 「Chat」 モデルコンテキストサイズ: 4096 最大トークン数の上限: 4096 Vision Support: 「No」を選択 ワークフローの作成 4人のエージェントのシステムプロンプトを設定: 楽観的AI研究者、慎重派経済学者、AIジャーナリスト、倫理学者の4人のエージェントを作成

                                                      DifyとローカルLLMを使用して複数のエージェントを設定して議論する方法 - Sun wood AI labs.2
                                                    • Nue: The content-first web framework

                                                      A content-first Web framework Nue is a closer-to-metal framework embracing minimalism and web standards. It's structurally clean and stupidly fast. Get started Product roadmap Content-first: Build entire sites without ever leaving your content Vision The ultimate goal of Nue is to build a perfect web framework, which is ridiculously fast and easy to use. Nue JS Server-side templating and reactive

                                                        Nue: The content-first web framework
                                                      • 【LCM】512×512pxの画像を0.02秒でリアルタイム画風変換する

                                                        はじめに こんにちは。 一昨日、土日を1日潰してLatent Cosistency Model(LCM)の推論高速化に取り組んでみたところ、そこそこ上手くいき、512×512pxの画像をimage-to-image(img2img)するタスクにおいてRTX3090で26fps、A100で33fpsの推論速度が出るようになりました。 【追記】RTX4090だと45fps出たそうなので、記事のタイトルをわずかに更新しました。記事作成当時はA100で検証していたので、以下ご了承ください。 画像1枚につき0.03秒で処理できていることになるので、ほぼリアルタイムで変換できていると言ってもいいのではないでしょうか。 プログレスバーが1%進むごとに1枚の画像のimg2imgが完了しています。気持ちいいですね。 そこで、この記事では、当高速化に取り組んだとき経験的に(理論的にではない)得られた、LCM推

                                                          【LCM】512×512pxの画像を0.02秒でリアルタイム画風変換する
                                                        • 「脱ブラックボックス化!LLMと一緒に使われるLangChainやLlamaIndexを徹底解説」というタイトルでDevelopersIO 2023に登壇しました #devio2023 | DevelopersIO

                                                          こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村( @nokomoro3 )です。 先日開催された DevelopersIO 2023 のチョークトークで登壇いたしました。 その際の資料と概要を共有いたします。 資料 登壇資料は以下となります。 概要のご紹介 以下の内容をご紹介しました。 OpenAI APIの話 APIの詳細な使い方 トークンとは何か Function callingの詳細 LangChainの概要 基本的なChain(LLMChain、SequentialChain) 応用的なChain(LLMRouterChain、SQLDatabaseChain、ConversationChain、RetrievalQA) Memoryの種類 Agentの種類 LlamaIndexの概要と仕組み LangChainとの違い、内部的な仕組み カス

                                                            「脱ブラックボックス化!LLMと一緒に使われるLangChainやLlamaIndexを徹底解説」というタイトルでDevelopersIO 2023に登壇しました #devio2023 | DevelopersIO
                                                          • NVIDIA製ワークステーションGPU搭載&メモリを簡単に交換できるノートPC「ThinkPad P1 Gen 7」をLenovoが発表

                                                            Lenovoが2024年4月23日にモバイルワークステーション「ThinkPad P1 Gen 7」を発表しました。ThinkPad P1 Gen 7はLPCAMM2規格のメモリを搭載しており、簡単にメモリを交換できるのが特徴です。 Lenovo Unveils Its New AI-Ready ThinkPad P1 Gen 7 Mobile Workstation - Lenovo StoryHub https://news.lenovo.com/pressroom/press-releases/lenovo-unveils-its-new-ai-ready-thinkpad-p1-gen-7-mobile-workstation/ ThinkPad P1 Gen 7はCPUにIntel Core Ultraを採用し、GPUはゲーミング向けのNVIDIA GeForce RTX 40シ

                                                              NVIDIA製ワークステーションGPU搭載&メモリを簡単に交換できるノートPC「ThinkPad P1 Gen 7」をLenovoが発表
                                                            • Backward Compatibility, Go 1.21, and Go 2 - The Go Programming Language

                                                              Russ Cox 14 August 2023 Go 1.21 includes new features to improve compatibility. Before you stop reading, I know that sounds boring. But boring can be good. Back in the early days of Go 1, Go was exciting and full of surprises. Each week we cut a new snapshot release and everyone got to roll the dice to see what we’d changed and how their programs would break. We released Go 1 and its compatibility

                                                                Backward Compatibility, Go 1.21, and Go 2 - The Go Programming Language
                                                              • WSL Ver.2.0の新機能「自動メモリ回収」を実際に試す

                                                                今回は、前回の記事(「プレビュー版が登場したWSLのVer.2.0 新機能を具体的に見る」)の続きで、Windows Subsystem for Linux(WSL) Ver.2.xの新機能である、自動メモリ回収機能を調べることにする。 なお、前回WSLのVer.2.0を「WSL V2.0」と表記した。しかし、読者の方を少し混乱させてしまったようだ。そこで、最初に用語を少し整理させていただく。WSL2とWSL Ver.2.0の違いがわかる方は読み飛ばしていただいて構わない。 WSL関連の用語を整理 WSLに限らず、ソフトウェア製品では、追加機能などを略称で表記することがある。WSLも登場以来さまざまな機能が追加されており、WSLという単語を含む用語が複数ある。 この中でも「WSL2」とは、Linuxカーネルを使う仮想マシン環境でLinuxディストリビューションを実行するものだ。一方でそれ以

                                                                  WSL Ver.2.0の新機能「自動メモリ回収」を実際に試す
                                                                • Introducing: Raspberry Pi 5! - Raspberry Pi

                                                                  Today, we’re delighted to announce the launch of Raspberry Pi 5, coming at the end of October. Priced at $60 for the 4GB variant, and $80 for its 8GB sibling (plus your local taxes), virtually every aspect of the platform has been upgraded, delivering a no-compromises user experience. Raspberry Pi 5 comes with new features, it’s over twice as fast as its predecessor, and it’s the first Raspberry P

                                                                    Introducing: Raspberry Pi 5! - Raspberry Pi
                                                                  • 意外と知られていない、Linuxのメモリホットプラグのインタフェースについて - Qiita

                                                                    0.はじめに 0.1 今年を振り返って この記事はFujitsu Advent Calendar 2023 の24日目の記事です。 なお、本記事は個人の意見に基づくものであり、組織を代表するものではありません。 今年もAdvent Calendarの季節となりましたね。皆様お変わりないでしょうか? 私の方はというと、全体的に多忙ではありましたが、夏には国際学会IEEE NVMSAでの発表、秋から年末にかけて海外出張やOpen Source Summit Japanでの講演など、今年後半は怒涛のように仕事がくる状態になってました。おまけに 「Linus Torvaldsと会談せよ」 というミッションまで降ってきてしまい、正直どうなることかと思いました。人生、何が起こるかわからないものです。学生時代、英語は超苦手だったのに…。 0.2 今年の記事について さて、例年このAdvent Calen

                                                                      意外と知られていない、Linuxのメモリホットプラグのインタフェースについて - Qiita
                                                                    • TiKVにおけるトランザクションとMVCCの話

                                                                      はじめに PingCAPの小板橋です。はじめまして! TiDBの入門記事から上級者編まで幅広く取り扱う本アカウント第5回目は「TiKVにおけるトランザクションとMVCCの話」についてをまとめていきたいと思います。 TiKVの仕組み まずは、TiKVの仕組みについてを見ていきましょう。 全体のTiDBクラスターのアーキテクチャについては、下記の記事をご覧ください。 TiDBクラスターにおけるデータレイヤーにあるストレージノードとしてTiKVと呼ばれるものがあります。 TiKVは、分散型のキーバリューデータベースになり、ACIDに準拠したトランザクションAPIを提供しています。このTiKVの裏には、RocksDBとRaftコンセンサスアルゴリズムによって動作しています。 Raftコンセンサスアルゴリズムについては、また別の記事で深ぼっていきます。(こちらはこちらでお楽しみに!) RocksDB

                                                                        TiKVにおけるトランザクションとMVCCの話
                                                                      • 大規模なRedis運用で生き残る方法

                                                                        こんにちは。LINE Plus(韓国にある、LINEヤフー株式会社の子会社)のRedisチームでDBA業務を担当しているJeonghoon Kimです。私たちのチームはその名の通り、代表的なキーバリューストア(key-value store)Redisを研究し、社内に導入しています。また、国や法人を問わずに独自で運営しているサービスを除く、LINE関連サービスで使用されるすべてのRedisに対して技術サポートを担当しています。 その間、新しいサービスが生まれ、既存のサービスも成長してRedisの規模も徐々に大きくなってきました。この記事では、2023年の1年間、大規模なRedisを運用してきた私たちのチームの経験についてお伝えしたいと思います。まず、私たちが運用しているRedisのおおよその規模と、HA(high availability)をどのように構成したかを簡単に説明し、クラウドリソ

                                                                          大規模なRedis運用で生き残る方法
                                                                        • PCテクノロジートレンド 2024 - プロセス編

                                                                          2024年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う毎年恒例の特集記事「PCテクノロジートレンド」をお届けする。まずは例年通り、業界のあらゆる活動に大きな影響を及ぼす半導体プロセスの動向から紹介したい。 ◆関連記事リンク (本稿) PCテクノロジートレンド 2024 - プロセス編 (2024年1月2日掲載) PCテクノロジートレンド 2024 - CPU編 (2024年1月3日掲載) PCテクノロジートレンド 2024 - GPU編 (2024年1月4日掲載) PCテクノロジートレンド 2024 - Memory編 (2024年1月5日掲載) PCテクノロジートレンド 2024 - Storage編 (2024年1月6日掲載) PCテクノロジートレンド 2024 - Chipset&NPU編 *** 皆様、あけましておめでとうございます。本年もよろしくお願いします。

                                                                            PCテクノロジートレンド 2024 - プロセス編
                                                                          • GitHub - wesql/wescale: WeScale is a database proxy that cares about your application, the development experience, and supports OnlineDDL.

                                                                            Connection Management: WeScale efficiently manages connections to your database, reducing the overhead on your application and improving performance. WeScale relieves you of the worry of the max_connection problem in your database. Read Write Split: WeScale simplify application logic by automatically routing read queries to read-only nodes and write queries to the primary node. This is achieved by

                                                                              GitHub - wesql/wescale: WeScale is a database proxy that cares about your application, the development experience, and supports OnlineDDL.
                                                                            • Moonbit: the fast, compact & user friendly language for WebAssembly

                                                                              The importance of WebAssembly (Wasm), a cross-platform Instruction Set Architecture (ISA), is escalating in Cloud and Edge computing, given its efficiency, security, compactness, and open standard. However, its true potential remains untapped. Low level Wasm languages like Rust and C/C++ are challenging to learn and can be slow for developers because of their long compilation time. On the other ha

                                                                                Moonbit: the fast, compact & user friendly language for WebAssembly
                                                                              • ホワイトハウスが開発者に対しC++やC言語からRustやJavaなどのメモリ安全性に優れたプログラミング言語への移行を勧める

                                                                                アメリカ・ホワイトハウスの国家サイバー局長室(ONCD)が、開発者に対し、C++やC言語といったプログラミング言語からRustやC#などのメモリ安全性が確保されたプログラミング言語への移行を勧めています。 BACK TO THE BUILDING BLOCKS:A PATH TOWARD SECURE AND MEASURABLE SOFTWARE (PDFファイル)https://www.whitehouse.gov/wp-content/uploads/2024/02/Final-ONCD-Technical-Report.pdf White House urges developers to dump C and C++ | InfoWorld https://www.infoworld.com/article/3713203/white-house-urges-developers

                                                                                  ホワイトハウスが開発者に対しC++やC言語からRustやJavaなどのメモリ安全性に優れたプログラミング言語への移行を勧める
                                                                                • Learning Async Rust With Entirely Too Many Web Servers

                                                                                  I've found that one of the best ways to understand a new concept is to start from the very beginning. Start from a place where it doesn't exist yet and recreate it yourself, learning in the process not just how it works, but why it was designed the way it was. This isn't a practical guide to async, but hopefully some of the background knowledge it covers will help you think about asynchronous prob

                                                                                    Learning Async Rust With Entirely Too Many Web Servers