並び順

ブックマーク数

期間指定

  • から
  • まで

561 - 600 件 / 1544件

新着順 人気順

高速化の検索結果561 - 600 件 / 1544件

  • 変数を使って数式などを処理する、関数LETの使い方 - 定時で上がろう! Excel関数の底力(64)

    今回は、関数LETの使い方を紹介していこう。LETは2020年11月にリリースされた新しい関数で、最新のExcel 2021とMicrosoft 365でのみ使える関数となる。その機能は「変数を定義し、その変数を使ってさまざまな処理を実行できる」というもの。他の一般的なExcel関数と比べて、かなり趣の異なる関数といえる。詳しく解説していこう。 関数LETの基本 関数LETは「変数を使ってプログラムにように記述できる関数」としてリリース時から注目を集めてきた関数だ。2024年2月時点において、Excel 2021とMicrosoft 365でのみ使用できる、まだまだ歴史の浅い関数といえる。 関数LETについての巷の感想は、「とても便利な関数」という人もいれば、「あまり意味がない」とか「むしろ混乱を招くだけ」という人もいる、評価の分かれる関数になっているようだ。「実際にどうなのか?」を各自で

      変数を使って数式などを処理する、関数LETの使い方 - 定時で上がろう! Excel関数の底力(64)
    • cocoonにおしゃれな新しいスキンが増えていた!

      SWELLを使いたい いろいろなブログを見ていると「へ~こんなのいいな~」おしゃれな写真だな~とついつい隣の芝生は青く見えていました。SNSでは、いろんな事が飛び交っています。cocoonは稼げないとか、SWELLに変えたら検索結果が上位に上がったとか「AFFINGER6」がいいとか・・・SWELLのサイトを見に行くと波がうねっているのげ出てきていいな~とか、AFFNGERのサイトを見に行くとおしゃれな写真が並んでてこんなのもいいな~とか・・・cocoonはcocoonっぽいんだよな~(生意気にすみません💧)で、有料のテーマだと、プラグインも少なくていいとか、エラーが少ないとか(いつも、グーグルサーチコンソールと、ページスピードインサイトのエラーの多さに悩んでいました)さすが有料テーマは違うとかよくのっていたので、よし、SWELLは買い切りなので、買っちゃおう!と、切り替えるための準備を

        cocoonにおしゃれな新しいスキンが増えていた!
      • GPT-4超え精度でスマホ上実行できるオンデバイス生成AI「Octopus v2」、Google「生成AIは大きければいいってものではない」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

        2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第41回目は、生成AI最新論文の概要5つを紹介します。 生成AI論文ピックアップ 言語モデルの計算を最大50%高速にする「MoD」をGoogleが開発 「画像生成AIのモデルサイズを大きくすればいいとは限らない」をGoogleなどが実証 ピクセルを1つずつ予測するのではなく、画像を粗い解像度から徐々に高解像度へと生成する、高速かつ高品質な画像生成AI「VAR」 パラメータ効率の高いファインチューニング手法「ReFT」をスタンフォード大学などが開発 GPT-4超えの精度でスマートフォンに導入できる20億パラメータを持つオンデバイスAIモデル「Octopus v2」をスタ

          GPT-4超え精度でスマホ上実行できるオンデバイス生成AI「Octopus v2」、Google「生成AIは大きければいいってものではない」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
        • Databricks Container ServiceでTensorRT-LLMを動かしてみた - NTT Communications Engineers' Blog

          本記事ではDatabricksのDatabricks Container Serviceを用いてNVIDIA社の推論ライブラリであるTensorRT-LLMを実行可能なNotebook環境を構築する方法を紹介します。 目次 目次 はじめに Databricks Container Service NVIDIA TensorRT-LLM 解決したいこと TensorRT-LLM Container Imageの作成 Databricks Containers ベースイメージの変更 Pytorch バージョンの変更 TensorRT-LLMのインストール 動作確認 Databricks環境設定 TensorRT-LLMのインポート Llama2 HF-7b-instruct モデルの変換 TensorRT-LLMの呼び出し まとめ 参考文献 はじめに こんにちは、NTTコミュニケーションズの露

            Databricks Container ServiceでTensorRT-LLMを動かしてみた - NTT Communications Engineers' Blog
          • Mustache Templateの実装を書いた - 時計を壊せ

            この記事はPerl Advent Calendar 15日目の記事です。 qiita.com さて 様々からの現実逃避とISUCONに向けたPerlのリハビリでmustache template engineをちまちま自作してたんだけどついにmustache/specなどから作ったテストが全部通ってしまった— かるぱねるら (@karupanerura) December 12, 2023 ということで、ひさしぶりにCPANizeしました。なんか早速bug fixが見つかって早々に0.02です。 metacpan.org 今のPCでは初めてのCPANizeだったようで ~/.pause がなくてちょっと焦った。 なんで? 人生色々。様々があります。 たとえば、やることに追われたり、悩ましい考え事に苛まれたり、やることに追われたり、やることに追われたり、様々があります。 一方でISUCONも

              Mustache Templateの実装を書いた - 時計を壊せ
            • CloudNative Days Tokyo 2023 〜現地参加のふりかえり〜 - RAKUS Developers Blog | ラクス エンジニアブログ

              SRE課の飯野です。 2023/12/11(月)〜12(火)の2日間、『CloudNative Days Tokyo 2023』(以下CNDT)が開催されました。 弊社からはわたしが所属するSRE課の他、インフラ開発部の大阪メンバー(出張での参加!)や楽楽精算の開発メンバーなども含め、15名ほどが現地参加しました。 本ブログでは、CNDT参加後に行った社内でのふりかえりの内容をお届けします。 『SRE NEXT 2023』参加時のブログもありますので、よろしければこちらもご覧ください。 tech-blog.rakus.co.jp 目次 CNDTとは? 当日の様子 ふりかえりやってみよう 総括 CNDTとは? 『CloudNative Days』というコミュニティが手掛けている日本最大級のクラウドネイティブ・テックカンファレンスです。 その名の通り「クラウドネイティブ技術」に焦点を当てており

                CloudNative Days Tokyo 2023 〜現地参加のふりかえり〜 - RAKUS Developers Blog | ラクス エンジニアブログ
              • Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表 AWSやAzureの高速ストレージより100倍高速と説明

                この記事は新野淳一氏のブログ「Publickey」に掲載された「Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表。競合となるAWSやAzureの高速ストレージより100倍高速と説明。Google Cloud Next '24」(2024年4月11日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 米Google Cloudは日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、AIの推論やサービングのワークロード向けに最適化されたブロック ストレージ サービス「Hyperdisk ML」を発表しました。 説明によると、Hyperdisk MLは一般的なストレージサービスと比較して、AIモデルの読み込み時間を最大12倍高速化し、最大で2500インスタンスが同じボリュームにアクセスでき、

                  Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表 AWSやAzureの高速ストレージより100倍高速と説明
                • スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される

                  スーパーコンピューター「富岳」を用いて学習した130億パラメータの大規模言語モデル「Fugaku-LLM」が2024年5月10日(金)に公開されました。Fugaku-LLMは既存の大規模言語モデルに頼らず独自の学習データを用いて学習しており、既存の日本語特化大規模言語モデルと比べて高い性能を発揮することがアピールされています。 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 | 東工大ニュース | 東京工業大学 https://www.titech.ac.jp/news/2024/069217 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通 https://pr.fujitsu.com/jp/news/2024/05/10.html Fugaku-LLMは2

                    スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される
                  • test_profを用いたRailsの自動テストの高速化の実践例 - SmartHR Tech Blog

                    このエントリは、SmartHR Advent Calendar 2023 シリーズ1の5日目の記事です。 こんにちは!SmartHRでプロダクトエンジニアをしている大澤(@qwyngg)です。 最近Railsの自動テストの高速化について調べていたので、その内容をまとめてみました。 主にtest_profというgemを用いた解析と、その結果を元にした改善方法について書いています。 test_profとは https://github.com/test-prof/test-prof テストのパフォーマンスを分析する様々なツールを提供するgemです。 色々機能があるのですが、今回は以下の機能を使って発見した問題とその解決方法を紹介します。 factory_botプロファイラ テストに対してstackprofを(面倒な設定無しで)実行できる 詳しい使い方はTestProf: Ruby tests

                      test_profを用いたRailsの自動テストの高速化の実践例 - SmartHR Tech Blog
                    • 本当にオープンソースのライセンスで利用&検証できる大規模言語モデル「Mistral 7B」が登場、「Llama 2 13B」や「Llama 1 34B」を上回る性能のAI開発が可能

                      フランスのAIスタートアップであるMistral AIが開発した大規模言語モデル「Mistral 7B」が、2023年9月に登場しました。モデルの重みがApache 2.0ライセンスでリリースされているので自由に調整してチャットAI開発に利用可能となっているほか、パラメーター数を73億個に抑えているにもかかわらず「Llama 2 13B」や「Llama 1 34B」などパラメーター数の大きいモデルよりもベンチマークで高いスコアを残しています。 Mistral 7B | Mistral AI | Open source models https://mistral.ai/news/announcing-mistral-7b/ Mistral 7Bは73億パラメーターのモデルで、特徴は下記の通り。 ・すべてのベンチマークでLlama 2 13Bを上回るパフォーマンス ・多くのベンチマークでLl

                        本当にオープンソースのライセンスで利用&検証できる大規模言語モデル「Mistral 7B」が登場、「Llama 2 13B」や「Llama 1 34B」を上回る性能のAI開発が可能
                      • LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較

                        LLM-as-a-Judgeとは LLMをアプリケーションに組み込んでいると、LLMの出力を評価する必要が出てきます。 LLMの「出力は確率的である(毎回異なる)」ためです。 また、LLMの出力はハルシネーションを含む可能性がありますし、間違いではないにしてもサービス提供者の意図とは違った出力をエンドユーザーに提示してしまうかもしれません。 LLMの出力を評価して、出力が適切でないことを判定できれば、ユーザーには表示しない、出力を再度行わせる(出力をLLMに修正させるのもよいでしょう)というようなことができるようになります。 ただし、LLMのすべての出力を人が評価していたのでは、手が回りません。 そこで、注目されているのが、LLM-as-a-Judgeと呼ばれるLLMにLLMの出力を評価させる手法(以後、単に評価と呼ぶ)です。 評価にLLMを使えば、出力をすぐに評価し、評価結果をアプリケー

                          LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較
                        • 「M3」チップになったMacBook Pro発表 新色「スペースブラック」も 24万8800円から

                          米Appleは10月30日(現地時間)、オンラインイベント「Scary fast.」にて、新型「MacBook Pro」を発表した。14インチと16インチの2モデルを用意する。同日より予約注文を開始し、11月7日に発売する。 米Appleは10月30日(現地時間)、オンラインイベント「Scary fast.」にて、新型「MacBook Pro」を発表した。14インチと16インチの2モデルを用意する。同日より予約注文を開始し、11月7日に発売予定(M3 Maxモデルは11月後半)。 3nmプロセスを採用した新チップ「Apple M3」ファミリーに刷新。一気に、M3/M3 Pro/M3 Maxを用意した。これまで無印チップを採用したMacBook Proは、Touch Bar付きの13インチモデルが設定されていたが、14インチモデルに採用。3つのチップから選べるようになった。16インチはM3

                            「M3」チップになったMacBook Pro発表 新色「スペースブラック」も 24万8800円から
                          • 再計算を用いたMN-Core向けコンパイラの最適化 - Preferred Networks Research & Development

                            私がPFNに入ってから知った、もっとも好きな技術トピックの一つである、MN-Core™向け再計算のご紹介をします。再計算(recomputation、rematerializationやcheckpointingなどのキーワードで呼ばれることもあります)は、その名の通り同じ計算を複数回することで、GPUメモリを節約するために再計算を利用するテクニックは広く知られています。PFNでも、再計算を使ったメモリ節約アルゴリズムに取り組み、実際の事業でフル活用しています。 MN-Core向けの再計算は、消費メモリ削減でなく、高速化を主目的としています。再計算で計算する量が増えるにも関わらず、高速化が達成できるというのが、私がとても面白いと思う点です。カラクリを紹介していきます。 MN-Coreは、DRAMとSRAMの二種類のメモリを持ち、使えるリソースをとにかく演算器に費やしているのが特徴のアクセラ

                              再計算を用いたMN-Core向けコンパイラの最適化 - Preferred Networks Research & Development
                            • Go言語、実行時プロファイル情報による最適化「Profile-guided optimization」が正式機能に。Go 1.21リリース

                              Go言語の開発チームは8月8日にリリースしたGo 1.21で、実行時のプロファイル情報を用いてコンパイルを最適化し、実行速度の改善を図る「Profile-guided optimization」機能が正式版になったことを明らかにしました。 Go言語のコンパイルはソースコードの静的な解析を基にして高速なバイナリを生成するような最適化が行われています。 今回、正式機能となった「Profile-guided optimization」は、バイナリ実行時にどの関数が何度呼ばれたのか、メモリがどのように使用されたかなどのプロファイル情報を基にコンパイルを最適化することで、より高速なバイナリを生成する手法です。 具体的には、何度も呼ばれた関数をインライン展開することで関数呼び出しのオーバーヘッドをなくす、変数の使用頻度によってレジスタへの割り当てを変更する、ループを展開する、などの処理がコンパイル時に

                                Go言語、実行時プロファイル情報による最適化「Profile-guided optimization」が正式機能に。Go 1.21リリース
                              • 「Copilot Workspace」発表、人間がコードを書くことなく、仕様作成からコード作成、デバッグまで/Docker Desktop、Appleシリコン上でx86-64バイナリをほぼネイティブな速度で実行、ほか。2023年11月の人気記事

                                「Copilot Workspace」発表、人間がコードを書くことなく、仕様作成からコード作成、デバッグまで/Docker Desktop、Appleシリコン上でx86-64バイナリをほぼネイティブな速度で実行、ほか。2023年11月の人気記事 つい先日まで長袖Tシャツ1枚で過ごしていたような気がするのですが、気がつけばダウンジャケットを着て外出するような冬の気温になってしまったようです。読者の皆様はいかがお過ごしでしょうか。 寒いのは苦手なのですが、今年の冬は暖冬らしいので少しほっとしています。 さて、11月が終わりましたので、人気記事のランキングを紹介していきましょう。 1位から3位 1位 GitHub、Copilotの将来像となる「Copilot Workspace」発表。人間がコードを書くことなく、Copilotが仕様作成からコード作成、デバッグまで実行。GitHub Univer

                                  「Copilot Workspace」発表、人間がコードを書くことなく、仕様作成からコード作成、デバッグまで/Docker Desktop、Appleシリコン上でx86-64バイナリをほぼネイティブな速度で実行、ほか。2023年11月の人気記事
                                • 人工知能が大きな脅威をもたらす可能性についてDeepMindの共同創設者が語る

                                  かなり高度なクオリティでやりとりができる対話型チャットボットであるChatGPTの登場などにより、人工知能(AI)の発展と流行は大きく加速しています。そのようなAIの発展にどのような懸念事項があるのかについて、最強の囲碁AI「AlphaGo Zero」やタンパク質の立体構造予測AI「AlphaFold」を開発したことで知られるAI研究グループGoogle DeepMindの共同創設者であるムスタファ・スレイマン氏が語っています。 ‘I hope I’m wrong’: the co-founder of DeepMind on how AI threatens to reshape life as we know it | Artificial intelligence (AI) | The Guardian https://www.theguardian.com/books/2023/s

                                    人工知能が大きな脅威をもたらす可能性についてDeepMindの共同創設者が語る
                                  • Appleシリコン向けLinuxの「Asahi Linux」がOpenGL ES対応のGPUドライバーを公開

                                    Apple独自開発のMac向けチップであるAppleシリコンを搭載したMac上で動作するLinuxの「Asahi Linux」が、OpenGL ESバージョン3.1に対応したGPUドライバーを発表しました。 Rosenzweig – The first conformant M1 GPU driver https://rosenzweig.io/blog/first-conformant-m1-gpu-driver.html Asahi Linuxの開発者であるアリッサ・ローゼンツヴァイク氏が、M1チップやM2チップといったAppleシリコンに準拠した、世界で唯一のOpenGL ESバージョン3.1に対応したAsahi Linux向けオープンソースGPUドライバーを発表しました。 asahi / mesa · GitLab https://gitlab.freedesktop.org/as

                                      Appleシリコン向けLinuxの「Asahi Linux」がOpenGL ES対応のGPUドライバーを公開
                                    • 「iPad Pro」に新モデル まさかの「M4」チップ搭載、初のOLEDパネルも【追記あり】

                                      米Appleは5月7日(現地時間)、新型タブレット「iPad Pro」を発表した。2023年10月に発表された「M3」チップを飛び越え、Apple製品で初めて「M4」チップを搭載。11インチと13インチの2モデル展開となる。 M4チップは、CPUは4つの高性能コア、6つの高効率コア、10コアGPUを内蔵した3nm世代のSoC。M2よりも最大50%高速化しており、GPUはレンダリングパフォーマンスを4倍に強化したという。レイトレーシングもサポートする。AIや機械学習に使用する16コアのNeural Engineは、毎秒38兆回の演算が可能という。 ディスプレイは、iPad初のOLEDパネル「Ultra Retina XDR」を採用。最大1000ニト、ピークHDR輝度で1600ニトをほこる。これまで縦に配置されていたフロントカメラとFace IDセンサーは横に移動。Magic Keyboard

                                        「iPad Pro」に新モデル まさかの「M4」チップ搭載、初のOLEDパネルも【追記あり】
                                      • CDNを利用してWebパフォーマンスを上げる ー 画像最適化からHTTP/3、HTTPSレコードまで

                                        本記事は、TechFeed Experts Night#21 〜 Webパフォーマンス・チューニング最前線 : 後編(DB、CDN、キャッシュ、OS編)のセッション書き起こし記事になります。 イベントページのタイムテーブルから、その他のセッションに関する記事もお読み頂けますので、一度アクセスしてみてください。 本セッションの登壇者 セッション動画 「CDNを活用して高速なWebサービスを提供する」というタイトルで発表していきます。 まず自己紹介なんですけども、本名は金子です。今、PR TIMESという会社でCTOをやってます。紹介があったISUCON本の著者の一人で、6章「リバースプロキシの利用」、7章「キャッシュの活用」、8章「押さえておきたい高速化手法」を担当しています。ISUCONは9の予選と6の本選の運営を担当していて、実は今年のISUCONもアドバイザーとして運営に関わっています

                                          CDNを利用してWebパフォーマンスを上げる ー 画像最適化からHTTP/3、HTTPSレコードまで
                                        • フロントエンドタスクをBunで実行してみた

                                          はじめに 初めまして! フロントエンドエンジニア、中村と申します。 好きなCSSのプロパティは text-overflow、JavaScriptで気に入っている関数は toLocaleString です。 最近、開発に伴う待ち時間が非常にストレスとなっています。 特にLintやFormatter、Testといったフロントエンドタスクの実行は頻繁に必要とされるにも関わらず、実行時間の長さが辛いです。 この状況が続くと、タスクの実行を待つ間にSNSやYouTubeを見てしまいがちです。 そこで、高速と評判のBunを使ってタスクを高速化できないか検証してみることにしました。 Bun とは Bun は JavaScript や TypeScript 用のオールインワンツールキットです。 他のランタイムやパッケージマネージャーと比較して、その高速性が特徴です。 特にパッケージのインストール速度の速さ

                                            フロントエンドタスクをBunで実行してみた
                                          • ファンコミュニティのUGCを効率的に届けるためiALSベースの協調フィルタリング推薦システムを作った話 - Gaudiy Tech Blog

                                            はじめまして。GaudiyでMLエンジニアをしているMomijiと申します。主に推薦システムの開発を担当しています。 今年4月から、Gaudiyが開発・提供するプロダクト「Gaudiy Fanlink」に協調フィルタリングベースの推薦機能を追加したので、本記事ではそのロジックとシステムアーキテクチャについて書いてみたいと思います。 1. 「Gaudiy Fanlink」における推薦 2. 協調フィルタリングによるパーソナライズ推薦 2-1. 学習 2-2. バッチ推論 2-3. リアルタイム推論 3. システムアーキテクチャ 4. これから 1. 「Gaudiy Fanlink」における推薦 Gaudiy Fanlinkは、IPファンが集う、SNS型のコミュニティプラットフォームです。そこにおける「推薦」の役割は、ユーザーとコンテンツのマッチングを促進し、コミュニティ内の活動総量を増加させ

                                              ファンコミュニティのUGCを効率的に届けるためiALSベースの協調フィルタリング推薦システムを作った話 - Gaudiy Tech Blog
                                            • NVIDIA“GeForce NOW”が日本で提供開始。スペックの低いPCやスマホで『スト6』や『原神』などを楽しめるクラウドゲーミングプラットフォーム | ゲーム・エンタメ最新情報のファミ通.com

                                              “GeForce NOW”は、スペックの低いPCやスマホでも『Apex Legends』や『原神』などのゲームを楽しむことができるクラウドゲームサービス。無料プラン、Priority(月額1790円[税込])に加えて、月額3580円[税込]のGeForce NOW Ultimateプランが用意されており、Ultimateは8時間のセッション時間に最大4K、240FPSに対応している。 PCゲームストアを見る (Amazon.co.jp) 東京 - 2024年4月4日 - NVIDIAは本日、GeForce NOWクラウドゲーミングプラットフォームが、日本で利用可能になったことを発表しました。また、同サービスの最高性能レベルであるUltimateメンバーシップを日本のゲーマーに初めて提供し、クラウドゲーミングの世界的な拡大をさらに加速させます。 最先端のNVIDIA GeForce RTX

                                                NVIDIA“GeForce NOW”が日本で提供開始。スペックの低いPCやスマホで『スト6』や『原神』などを楽しめるクラウドゲーミングプラットフォーム | ゲーム・エンタメ最新情報のファミ通.com
                                              • 新型「iPad Air」登場 Air初、11インチと13インチの2モデルに M2チップに刷新【追記あり】

                                                米Appleは5月7日(現地時間)、新型タブレット「iPad Air」を発表した。これまで11インチのみのサイズ展開だったが、新たに13インチを追加。2モデル体制となった。 SoCは「M2」チップに刷新。M1チップモデルから50%高速化するという。容量は128GB、256GB、512GB、1TBから選択可能だ。ディスプレイは「Liquid Retina Display」を採用しており、カメラが横位置に移動。「Magic Keyboard」などを使用している際でも、ビデオ通話しやすい位置になっている。なお、120Hzで表示するProMotionには対応しない。 同日に発表された「Apple Pencil Pro」に対応しており、iPad ProでしかサポートしていなかったApple Pencilのホバー動作にも対応した。Face IDは搭載せず、引き続きTouch IDをサポートする。 関連

                                                  新型「iPad Air」登場 Air初、11インチと13インチの2モデルに M2チップに刷新【追記あり】
                                                • 通信業者が快適なネットゲーム回線に「追加料金」を請求できるようにする法律の制定が目前に、「有害な5G高速レーン」と専門家は批判

                                                  アメリカの連邦通信委員会(FCC)が2024年4月4日に、インターネット・サービス・プロバイダー(ISP)が特定のアプリケーションに優先的に5G回線を割り当てるサービスを可能とする新しい規則案を発表しました。これに対し、中立的で公正なインターネットを擁護する専門家から非難の声が上がっていることが報じられています。 Harmful 5G Fast Lanes Are Coming. The FCC Needs to Stop Them | Center for Internet and Society https://cyberlaw.stanford.edu/blog/2024/04/harmful-5g-fast-lanes-are-coming-fcc-needs-stop-them ISPs can charge extra for fast gaming under FCC’s I

                                                    通信業者が快適なネットゲーム回線に「追加料金」を請求できるようにする法律の制定が目前に、「有害な5G高速レーン」と専門家は批判
                                                  • 『崩壊:スターレイル』について、1年をかけてようやくわかってきた気がする。ピノコニー編を通じて見えてきた、開発陣の伝えたいこと - AUTOMATON

                                                    現在さまざまな場所で話題を呼んでいる『崩壊:スターレイル』。職業柄、そして一人のゲーマーとして、筆者もまた本作を遊び続けているプレイヤーの一人だ。だが正直に言うと、リリース初期のゲームプレイを通じて得られる体験に関して、ピンときていなかった。というのも、作品の構成要素が点でバラバラのように感じられていたからだ。 体験の柱となるストーリーと、それをとりまく世界観。タクティカルなJRPG風の戦闘システム。最近流行りのローグライク型コンテンツや、キャラクターとの通話コンテンツ。どれもこれもがシナジーを形成していないように思え、作品を理解することができなかったのだ。しかしピノコニー編を通じて、本作が伝えたいことが理解できるようになってきた気がするので、この稿をもってその理解の過程を綴る。なお、本作にはピノコニー編(バージョン2.2)までのストーリーのネタバレを軽微に含んでいる。 たとえばメインスト

                                                      『崩壊:スターレイル』について、1年をかけてようやくわかってきた気がする。ピノコニー編を通じて見えてきた、開発陣の伝えたいこと - AUTOMATON
                                                    • 80.最近のLLMの動向、マルチモーダルモデルの仕組みとLLMの評価方法を解説 | 白金鉱業.FM

                                                      感想などは白金鉱業.FMのハッシュタグ #白金鉱業fm につぶやいてもらえるととても喜びます! 匿名でのお便りもgoogle formにてお待ちしております! — 目次 00:31〜:最近のLLMの動向 07:36〜:マルチモーダルモデル 17:20〜:LLMの評価方法 show notes 最近のLLMの動向(最後に辻さん、金さんが参加した収録は23年8月。そのあと世の中には何があったか?) 2023.08 OpenAI社 「GPT-3.5のファインチューニングサービス」を提供開始 2023.09 OpenAI社 「GPT-4V」の導入を発表 2023.09 Open Interpreter(ローカル環境で動作するCode Interpreter)が話題に 2023.10 ChatDevを含むAgentを用いた産業への応用の試み 2023.11 OpenAI社 DevDayの開催。Cha

                                                        80.最近のLLMの動向、マルチモーダルモデルの仕組みとLLMの評価方法を解説 | 白金鉱業.FM
                                                      • OpenAI、「ChatGPT」の独自バージョンを構築可能に

                                                        UPDATE 「ChatGPT」の提供によって人工知能(AI)チャットボットを誰もが知る存在に押し上げたOpenAIは米国時間11月6日、ChatGPTの独自の特定用途バージョンをユーザーが構築できるようにすると発表した。 そうした特定用途ボットは「GPTs」と呼ばれ、プログラミングの知識がなくても構築できるという。ユーザーに必要なのは、自然な言葉による指示と追加の知識を与えた上で、画像作成やウェブ検索など、その目的を決めることだ。 「GPTsは、ChatGPTを特定用途向けにカスタマイズしたバージョンだ」と、OpenAIの最高経営責任者(CEO)であるSam Altman氏は述べた。同氏は、サンフランシスコで開催されたOpenAI DevDayでこの技術のデモを披露し、構築されたシステムに対して、同氏がアップロードした自身の講演の動画を基に、新興企業向けにアドバイスを提供するアプリを作成

                                                          OpenAI、「ChatGPT」の独自バージョンを構築可能に
                                                        • クラスメソッド データアナリティクス通信(AWSデータ分析編) – 2023年12月号 | DevelopersIO

                                                          データアナリティクス事業本部 コンサルティングチームの石川です。コンサルティングチームメンバーを中心に、日々AWSのアナリティクス関連サービスのアップデートとそのブログを追っています。 明日からre:Invent2023が始まります! ということで、今回は re:Invent2023 が始まる11/27までのアップデートを紹介します。今年のre:Invent2023 アナリティクス関連のセッションについて、事前にチェックすることをおすすめします! Amazon Redshift 新機能・アップデート 2023/11/01 - Amazon Redshift マルチ AZ が RA3 クラスター向けに一般提供開始 昨年のre:Invent2022に発表された Amazon Redshift RA3 クラスターのマルチ AZ 配置がついに一般提供(GA)になりました。Redshiftを複数のア

                                                            クラスメソッド データアナリティクス通信(AWSデータ分析編) – 2023年12月号 | DevelopersIO
                                                          • Apple Silicon Mac上のWindows 11 VMでDirectX 11 3Dグラフィックスをサポートし、数クリックでWindows 11のイメージをダウンロードできるGet Windows機能を追加した「VMware Fusion v13.5」がリリース。

                                                            VMwareがApple Silicon MacでWindows 11 on Armをサポートした「VMware Fusion v13.5」を正式にリリースしています。詳細は以下から。 米VMware, Inc.は現地時間2023年10月19日、IntelとApple Silicon Macでx86/Arm版Windows 11の仮想化に対応した仮想化ソフトウェア「VMware Fusion v13」の最新バージョンとなる「VMware Fusion 13 Pro/Player」をリリースしたと発表しています。 VMware Fusion 13.5 Brings Exciting New Features for Running Windows 11 on Macs with Apple Silicon Fusion 13.5 Is Live! – VMware Blog VMware F

                                                              Apple Silicon Mac上のWindows 11 VMでDirectX 11 3Dグラフィックスをサポートし、数クリックでWindows 11のイメージをダウンロードできるGet Windows機能を追加した「VMware Fusion v13.5」がリリース。
                                                            • “純粋な国産AI”誕生 ハードもデータも全部日本製 スパコン「富岳」で開発

                                                              スーパーコンピュータ「富岳」で学習をした日本語特化の大規模言語モデル(LLM)が誕生した。東京工業大学と東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、AIベンチャー企業のKotoba Technologies(東京都港区)の合同研究チームは5月9日、富岳で開発したLLM「Fugaku-LLM」を発表した。パラメータ数は130億。GitHubやHugging Faceで公開しており、研究や商業目的で利用できる。 LLMの学習にはGPUを使うのが一般的だ。しかし、世界中でLLMの開発競争が起こっており、最新のGPUを大量に入手するのは困難な状況に陥っている。そんな中、東京工業大学と東北大学、富士通、理化学研究所の研究チームでは富士通製の国産CPUを中央演算処理装置に使う富岳で、LLMの開発を進める研究を2023年5月に開始。7月には名古屋大学とサイバーエージェント、Koto

                                                                “純粋な国産AI”誕生 ハードもデータも全部日本製 スパコン「富岳」で開発
                                                              • 新型「MacBook Air」登場 M3チップ、外部出力は2画面までOKに 16万4800円から(ITmedia NEWS) - Yahoo!ニュース

                                                                米Appleは3月4日、新型「MacBook Air」を発表した。最新チップ「M3」を採用し、13インチと15インチから選べる。日本含め同日から予約を開始し、3月8日に出荷を開始する。これにあわせ、M2モデルは最大3万円値下げしている。 【写真で見てみる】M3チップになった新しい「MacBook Air」 価格もチェック(計5枚) M3チップを採用したことで、最大18時間のバッテリー稼働を実現しつつ、M1チップモデルと比べて最大60%高速化。8コアCPU、レイトレーシングに対応した最大10コアのGPU、最大24GBのユニファイドメモリをサポートする。また、Wi-Fi 6Eの他、画面を閉じた状態で最大2台の外部ディスプレイ出力にも対応した。 価格は、13インチモデルが8コアCPU、8コアGPU版のM3チップに、8GBメモリ、256GBストレージで16万4800円から(学割なら14万9800円

                                                                  新型「MacBook Air」登場 M3チップ、外部出力は2画面までOKに 16万4800円から(ITmedia NEWS) - Yahoo!ニュース
                                                                • NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表

                                                                  2024年2月26日からスペインのバルセロナで開催されているテクノロジー見本市・MWC Barcelona 2024で、NVIDIAが「Ada Lovelace」アーキテクチャを採用したモバイルGPUである「RTX 500 Ada Generation」と「RTX 1000 Ada Generation」を発表しました。 NVIDIA RTX 500 and 1000 Professional Ada Generation Laptop GPUs Drive AI-Enhanced Workflows From Anywhere | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ada-ai-workflows/ Nvidia talks up local AI with RTX 500, 1000 Ada launch • The Regis

                                                                    NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表
                                                                  • 毎秒100枚の画像を高速生成できる「StreamDiffusion」、文章指示で複数の動く3Dキャラを生成するNVIDIA開発「AYG」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                    2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第26回目は、生成AI最新論文の概要5つをお届けします。画像生成の高速化技術を大幅に向上させた、日本人著者らによる「StreamDiffusion」をはじめとした最新論文を紹介します。 生成AI論文ピックアップ複数の動く3Dオブジェクトをテキスト指示で作成する4D生成モデル「AYG」、NVIDIAなどが開発 SD-turboで毎秒100枚以上の画像を生成できるシステム「StreamDiffusion」。著者による解説動画あり 細部まで一貫性のある被写体主導の画像・動画を生成できるモデル「DreamTuner」、ByteDanceが開発 人間が使うようにタップやスワイプ

                                                                      毎秒100枚の画像を高速生成できる「StreamDiffusion」、文章指示で複数の動く3Dキャラを生成するNVIDIA開発「AYG」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                    • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待

                                                                      要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed Wahib(モハメド・ワヒブ)チームリーダー、名古屋大学 大学院工学研究科の西口浩司准教授、株式会社サイバーエージェント AI事業本部AI Labの佐々木翔大リサーチサイエンティスト、Kotoba Technologies Inc. の小島熙之CEOは、理化学研究所のスーパーコンピュータ「富岳」を用いて学習した日本語能力に

                                                                        スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待
                                                                      • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第19回:ComfyUIで最新のStable Cascadeを試す+アナログ風の後処理ProPost (西川和久) | テクノエッジ TechnoEdge

                                                                        画像生成AI「Stable Diffusion」の基本から最新テクニックまで。グラビアカメラマンが教える、生成AIグラビア実践ワークショップ(第5回)参加者募集 | テクノエッジ TechnoEdge 後処理でアナログ写真っぽく=ProPost前回標準のWorkflowにLoRAを追加してみたが、今回は画像が出来た後、つまり後処理用のNodeを追加してみたい。 好みにもよるだろうが、筆者の場合、Promptでアナログフィルム固有のノイズ(Grain)を乗せたり、モノクロ化せず、Photoshopなどを使い処理することが多い。これをNodeで対応できるのが、ご紹介するProPostだ。 機能的には、GrainとVignette。どちらも独立したNodeになっているので、Grainした後にVignetteすることも可能。 インストール方法は簡単で、Manager > Install Custo

                                                                          生成AIグラビアをグラビアカメラマンが作るとどうなる?第19回:ComfyUIで最新のStable Cascadeを試す+アナログ風の後処理ProPost (西川和久) | テクノエッジ TechnoEdge
                                                                        • 「Git 2.42.0」が公開 ~ビットマップによるオブジェクトトラバーサルが高速化/Windows向けの「Git for Windows」も追随

                                                                            「Git 2.42.0」が公開 ~ビットマップによるオブジェクトトラバーサルが高速化/Windows向けの「Git for Windows」も追随
                                                                          • 【今さら聞けない?!】T3 Stack によるフルスタックWebアプリ開発 - Qiita

                                                                            はじめに 今フロントエンド/バックエンドの垣根を超えて巷を賑わせている T3 Stack について調べてみました。要素技術一つ一つが濃密なので、本記事ではあまり深入りはしませんが、「それらがどういう旨みを持ってT3 Stackを成しているのか」、「少し動かしたことがあるよ」と読み終わる頃には人に説明できるようまとめてみました。 キーワードは full-stack typesafety(フルスタックな型安全) です。📝 T3 Stack T3 Stack とは、Theo 氏によって提唱された Web 開発技術スタックで、以下の思想に焦点を当てています。 simplicity(シンプルさ) modularity(モジュール性) full-stack typesafety(フルスタックな型安全) The “T3 Stack” is a web development stack made by

                                                                              【今さら聞けない?!】T3 Stack によるフルスタックWebアプリ開発 - Qiita
                                                                            • Onnx RuntimeをUnityで動かす - Asus4 onD

                                                                              Onnx Runtimeをネイティブプラグインとして、Unity上で動かす実験とサンプルを公開しています。 github.com 開発の動機 4年前に、TensorFlow LiteをUnityで動かす実験を初めて、 はじめは全くの趣味で始めたものが、今では海外からいただく相談の半分以上が機械学習関連になっています。 四年前に始めた実験↓ asus4.hatenablog.com ところが、実際にシェアを見ると、研究関連ではPytorchのシェアが圧倒的。Unityの公式推論ライブラリBarracudaやTensorFlow Liteで動かすために一旦Onnxに変換するなどの事例なども増え始め、速度的にはTFLiteは非常に満足していますが、サクッとモデルを試してみたいという時に、変換するのが億劫になってきていました。公式ツールで変換しようにもOnnxやPytorchのNCHWからTFLi

                                                                                Onnx RuntimeをUnityで動かす - Asus4 onD
                                                                              • M3登場でもM2のMacを安心して選んでいい理由

                                                                                今回は(今回も?)少し技術的にマニアックな話を、なるべく丁寧に話したいと思う。 少し面倒くさい? いや、買い替えのタイミングを判断するには大切な話でもあるので、少しばかり付き合ってほしい。 たとえばApple(アップル)から発売された最新世代のAppleシリコン「M3」を搭載する24インチiMac。このアップデートは、実に魅力的なものとなった。 7色カラーに展開される、まるで単体ディスプレイのような佇まいをもつディスプレイ一体型デスクトップコンピュータは、付属するキーボードやマウス、トラックパッドなどがLightning対応ということを除けば、現在も魅力的なハードウェア構成、設計だ。 11.5ミリのきょう体に収まるM3は、その魅力的なデザインの中にM1と比べておよそ2倍というCPUパフォーマンスをもたらしてくれるだけではなく、24インチ4.5Kディスプレイ上で(十分に高い画質設定で)本格的

                                                                                  M3登場でもM2のMacを安心して選んでいい理由
                                                                                • 【Unity】BlendShapeを倍速化!GPU処理を自分で書いて、Unity公式BlendShapeのパフォーマンスに勝ってみよう!|技術ブログ|北海道札幌市・宮城県仙台市のVR・ゲーム・システム開発 インフィニットループ

                                                                                  ホーム 技術ブログ 【Unity】BlendShapeを倍速化!GPU処理を自分で書いて、Unity公式BlendShapeのパフォーマンスに勝ってみよう! 【Unity】BlendShapeを倍速化!GPU処理を自分で書いて、Unity公式BlendShapeのパフォーマンスに勝ってみよう! 宮城県仙台市の3Dゲームエンジニア、にしきんです。 前回、AnimatorやPlayableGraphからも卒業!?スキニング・スケルタルアニメーションの独自実装をして全局面で勝つ・前編という記事を公開しました。後編をお見せする前に、具体的なトピックでGPU向けの処理を書く話を挟むことにします。 前編でスキニングのGPU処理時間は10%ほどの改善に留まっており、パフォーマンス改善の主な部分はJob/BurstによるCPU部分についてでした。実際、私が挙げていた問題は殆どすべてがAnimatorに絡む

                                                                                    【Unity】BlendShapeを倍速化!GPU処理を自分で書いて、Unity公式BlendShapeのパフォーマンスに勝ってみよう!|技術ブログ|北海道札幌市・宮城県仙台市のVR・ゲーム・システム開発 インフィニットループ