並び順

ブックマーク数

期間指定

  • から
  • まで

441 - 480 件 / 1263件

新着順 人気順

GPUの検索結果441 - 480 件 / 1263件

  • 機械学習エンジニアに爆速でなるための教材集 - Qiita

    0. はじめに 昨今のAI、DXブームの影響で、機械学習、深層学習(ディープラーニング, Deep Learning) への注目は増すばかりですが、初学者の方にとって機械学習を学ぶハードルは依然高い状態かと思います。 機械学習、特にディープラーニングを習得するには学ぶべきことが多く、また分野によっては難易度が高いということもあり、学んでいる途中で挫折してしまうという人も多いという印象があります。 そこで本記事では、これから機械学習を学びたい方が自学自習する際の助けになるようにと、有用な自習コンテンツをまとめました。 本記事では、機械学習エンジニアとして実務に参画できるレベルを目指して、コンテンツを収集しました。よって機械学習の理論やライブラリに加え、社会実装する上で付随して必要となるソフトウェアエンジニアリングのスキルも含めています。 コンテンツについては、適宜追記していく予定です。 対象

      機械学習エンジニアに爆速でなるための教材集 - Qiita
    • AWS Batch ベストプラクティスまとめ | Amazon Web Services

      Amazon Web Services ブログ AWS Batch ベストプラクティスまとめ この記事はプリンシパル HPC ソリューションアーキテクトの Pierre-Yves Aquilanti、AWS Batch のプリンシパルプロダクトマネージャの Steve Kendrex とプリンシパル HPC アプリケーションエンジニアの Matt Koop によるものです。 更新: 2021 年 10 月 5 日 セクション 2 に於けるサブネット CIDR ブロックのガイドラインを修正。 AWS Batch は、科学者や技術者が複雑なシステム構成を管理する必要なく、自由にスケールできる計算環境を提供するサービスです。2017 年に登場して以来、疫学、ゲームシミュレーション、大規模機械学習といった諸々のワークロードを稼動させる様々な業種や組織といったお客様に採用されてきました。 この投稿で

        AWS Batch ベストプラクティスまとめ | Amazon Web Services
      • アマチュア向けゲーム開発環境を13年前と比較すると - ABAの日誌

        昨今の自作ゲーム向けハンドヘルドゲーム機を調べたついでに、13年前の2009年にアマチュア向けゲーム開発環境について書いていたことを思い出した。 せっかくだからハンドヘルドゲーム機以外についても、ここ13年でどういう変化があったか、知っている範囲で書いておこうかと思う。 PC 王道。最先端のCPU, GPUを使ったゲーム開発が可能。言語、ライブラリもお好みしだい。欠点としては、ゲームが実行される環境があまりにバラバラなので、環境依存の問題がおきやすいことと、統一したゲーム配布プラットフォームがないこと。アマチュア向けSteamみたいのがあるといいんだが。 Unity、Unreal Engine、Godotを代表とするゲームエンジンを使うことが標準となった。DirectXを直接さわってごにょごにょみたいなことはだいぶ減ったと思う。ゲームエンジン本体の豊富な機能と、付属するアセットストアがゲー

          アマチュア向けゲーム開発環境を13年前と比較すると - ABAの日誌
        • ビットコインが暴落してマイニングしてた人達が中古GPUを投げ売り→「お前らのせいでGPUが値上がりしてたんだよ誰が買うか」と怨嗟の声が上がる

          henomohesan🍚へのごはん @henomohesan 暗号通貨の暴落で中古GPUが投げ売りされてるけど、そういうの買っちゃダメと断じるPC記事。 マイニングに対するものすごい敵意が見える😅 g-pc.info/archives/25921/ pic.twitter.com/TrDQlylAmh 2022-06-17 19:49:58

            ビットコインが暴落してマイニングしてた人達が中古GPUを投げ売り→「お前らのせいでGPUが値上がりしてたんだよ誰が買うか」と怨嗟の声が上がる
          • ありがとうディープラーニングおじさん - karaage. [からあげ]

            最初に その後のディープラーニングおじさんの話です。シンデレラの続きみたいなものなので、読まないほうが夢を壊さないかもしれませんということだけ、ここで注意喚起いたします。 この記事、ずっと下書きに入ったまま公開しようか迷っていたのですが、ディープラーニングおじさんのご家族にもご了承いただき、公開することにしました。そこまで拡散は希望していないのですが、特に制限するつもりはありません(できません)。 ディープラーニングおじさんとの出会い振り返り ディープラーニングおじさん(以下Dおじさん)とは、今だに私のブログでトップのPV数を誇る記事の主役です。 上記記事ではあっさり書いていますので、もうちょっと解像度高く思い出しながら振り返ってみたいと思います。 そもそもの出会いは、社内で異動した後、たまたま隣の課にDおじさんがいたことからはじまります。Dおじさんは、私より一回り以上上の年齢(50代後半

              ありがとうディープラーニングおじさん - karaage. [からあげ]
            • 掛算の順序と学習指導要領 - きしだのHatena

              あいかわらず掛算の順序の話がもりあがってるようなのだけど、コーディングルールの話なんだから計算の定義の話をしても徒労だよなと思いながら見ていた。 で、ちょっと教育指導要領解説を見てみたのでまとめる。 学習指導要領解説の記述 「【算数編】小学校学習指導要領(平成29年告示)解説」では次のようになっています。順序は表現のときの問題で、計算では交換則を使っていいとなっています。 被乗数と乗数の順序は、「一つ分の大きさの幾つ分かに当たる大きさを求める」という日常生活などの問題の場面を式で表現する場合に大切にすべきことである。一方、乗法の計算の結果を求める場合には、交換法則を必要に応じて活用し、被乗数と乗数を逆にして計算してもよい。 このPDFの115ページ。 https://www.mext.go.jp/content/20211102-mxt_kyoiku02-100002607_04.pdf

                掛算の順序と学習指導要領 - きしだのHatena
              • なぜ、AppleのM1チップはそんなに速いのか?

                Medium(Debugger)より。 新しいM1 Macの実際の体験が動き始めました。速いです。本当に速い。しかし、なぜ? 魔法は何ですか? エリック・エンハイム Youtubeで、昨年iMacを購入したMacユーザーを見ました。それは40GBのRAMを搭載、約4000ドルの費用がかかて最大になりました。その時には、超高価なiMacが、わずか700ドルを支払った新しいM1 Mac Miniによって破壊されていく様子を信じられないような気持ちで見ていました。 実際のテストでは、M1 MacはIntel Macの最上位を超えて追い越しているだけでなく、それらを破壊しているのです。信じられない人たちは、一体どうやってこんなことが可能なのかと尋ね始めました。 あなたがその人たちの一人なら、あなたはうってつけの場所に来ました。ここでは、AppleがM1で行ったことを正確に消化可能な部分に分解する予

                  なぜ、AppleのM1チップはそんなに速いのか?
                • DirectX ❤ Linux - DirectX Developer Blog

                  DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

                    DirectX ❤ Linux - DirectX Developer Blog
                  • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(3)。テクスチャフィルタリング技術最適化の乱

                      【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(3)。テクスチャフィルタリング技術最適化の乱
                    • Ollamaで体験する国産LLM入門

                      近年、AIの中でも大規模言語モデル(LLM)の研究開発が特に活発に進められています。日本でも日本語に特化した国産LLMの開発競争が熾烈を極めています。さらには、小規模でも高性能なLLMが登場し、GPUのない手元のPCでも簡単にLLMを動かせる時代が到来しました。 本書では、まずLLMを動かすための基本的な知識をわかりやすく解説します。LLMについて学ぶには膨大な知識が必要と思われがちですが、動かす(推論する)だけであれば、いくつかの重要なポイントを押さえるだけで十分です。 その上で、OllamaというLLM推論フレームワークを活用し、実際にいくつかの国産LLMを動かしてみます。Ollamaはローカルで動かせるオープンソースソフトウェア(OSS)でありながら、Google Cloud等のクラウドプロバイダーとの連携を強めており、今後はLLM推論フレームワークとしてのデファクトスタンダードにな

                        Ollamaで体験する国産LLM入門
                      • 画像生成AI「Stable Diffusion」でイラストを描くのに特化したモデルデータ「Waifu-Diffusion」使い方まとめ

                        2022年8月に一般公開された画像生成AI「Stable Diffusion」を二次元イラスト490万枚以上のデータセットでチューニングした画像生成AIが「Waifu-Diffusion」です。このWaifu-DiffusionをローカルのWindows環境で実行するために、実際にモデルデータをダウンロードして導入してみました。 GitHub - harubaru/waifu-diffusion: stable diffusion finetuned on danbooru https://github.com/harubaru/waifu-diffusion ◆Waifu Diffusionでの生成例 実際に、プロンプト・Sampling Steps・Sampling method・CFG Scale・シード値をまったく同じに設定して、Stable Diffusion(左)とWaifu-

                          画像生成AI「Stable Diffusion」でイラストを描くのに特化したモデルデータ「Waifu-Diffusion」使い方まとめ
                        • 【海外で話題】GitHub Copilotは不要だ、自分で作ればいい — オープンソースのAIコードアシスタント「Continue」がすごい

                          8月19日、海外の技術情報メディアTheRegisterが「自分で作ればGitHub Copilotは不要」と題した記事を公開した。この記事では、オープンソースのAIコードアシスタント「Continue」を中心に、どのようにしてLLM(大規模言語モデル)をローカル環境で実行し、IDEに統合するかについて解説している。 Continueをインストールする前提条件 Continueをインストールし、動作させるには、以下の前提条件を満たす必要がある。 マシン要件: 動作に必要なマシン: 近年のプロセッサを搭載したシステムであれば動作するが、最適なパフォーマンスを得るためにはNvidia、AMD、またはIntelのGPU(6GB以上のvRAMを推奨)が望ましい。Apple Silicon搭載のMacでも動作するが、16GB以上のメモリを推奨する。 Ollamaモデルランナー: Ollamaモデルラ

                            【海外で話題】GitHub Copilotは不要だ、自分で作ればいい — オープンソースのAIコードアシスタント「Continue」がすごい
                          • 2024年夏: 生成AI普及後のコンテンツの在り方と未来を予想してみる|とりしま日記

                            あれよあれよと過ごしている間にもう2024年も9月になってしまいました。今期アニメも終盤で時が過ぎるのは早いものです。何かやるべきことを全然やれていない気がして非常に焦る…。 さて今日は某 Discord サーバーでいろいろな人と AI 関連の意見交換というか雑談をしていたのですが、話していくうちに自分の頭の中で点と点がつながりしっかり考えとしてまとまったことがいくつかあったので、覚えているうちに書き残しておこうと思う。 全てあくまで私見だけれど、今の世の中の流れを鑑みると、割と確度高い予想ができているんじゃないかと思う。 TL,DRTL,DR …のはずが箇条書きで1万字近く書いちゃってます、メモ書きなのでご愛嬌…(箇条書きの方が情報の依存関係を階層的に構造化できるので個人的に書きやすい) 現在生成 AI コンテンツがまだあまり世に出回っていないのは (技術的な課題ももちろんあるが、それ以

                              2024年夏: 生成AI普及後のコンテンツの在り方と未来を予想してみる|とりしま日記
                            • 富岳CPU A64FX用ディープラーニングライブラリの深層 -研究者が語る開発の軌跡- - fltech - 富士通研究所の技術ブログ

                              はじめに こんにちは。富士通研究所プラットフォーム革新PJの川上です。理化学研究所/富士通が共同で開発した新しいスーパーコンピュータ「富岳」が神戸市沖のポートアイランドに納入され、当初の予定を前倒しして今年度から試行運用が開始されました。6月には早速、スパコンランキングで世界初の同時4冠(TOP500, HPCG, HPL-AI, Graph500)を獲得するなど、幸先のよい立ち上がりを見せています。私が所属する部署では富岳を始め、富岳と同じCPUを搭載した弊社製品PRIMEHPC FX1000/700上でディープラーニング(DL)処理を高速に実現する技術の研究開発をしています。今回は、DL処理を高速に実現するoneDNNというライブラリソフトウェアを富岳向けに移植し、開発したソースコードを本家IntelのoneDNNに寄稿し、取り込まれた話をご紹介します。 ディープラーニング処理のソフト

                                富岳CPU A64FX用ディープラーニングライブラリの深層 -研究者が語る開発の軌跡- - fltech - 富士通研究所の技術ブログ
                              • 「AI敗戦」を直視できない人たち

                                日本はAIの学習を行うのに必要不可欠なGPUを十分に調達できていないという記事があった。 https://wirelesswire.jp/2023/08/85203/ 一本調子な煽り文体はどうにかならないのかとは思ったのだが、記事に対する反論をネットで一通り読んでみて驚いた。内容が幼稚すぎる。 ChatGPTがあるんだから今さら同じのを作っても意味がない 要するに日本は自国でのAIの研究開発は諦める。そして他国企業が開発したモデルだけを使わせていただくような縛りプレイをこの先もずっと続けていこうじゃないかという意見だ。 「ボクは足し算なんか勉強しなくてもいいんだ。だって隣の花子ちゃんは掛け算や割り算もできるんだから、困ったら答えを聞けばいいんだもん」という頭の悪い小学生の言い訳のような意見だが、困ったことになぜか一定の支持を集めている。 当然のことながらOpenAIのモデルは英語やアメリカ

                                  「AI敗戦」を直視できない人たち
                                • NVIDIAによる買収、失敗すればArmは業績低迷か

                                  NVIDIAによる買収、失敗すればArmは業績低迷か:両社が英国・競争市場庁に反論(1/2 ページ) 英国政府当局が現在進めている、NVIDIAのArm買収に関する調査の一環として発表した文書によると、もしNVIDIAによる買収提案が失敗に終わった場合、Armはスタンドアロン企業として成長していく上で、重大な障壁に直面することになるという。 英国政府当局が現在進めている、NVIDIAのArm買収に関する調査の一環として発表した文書によると、もしNVIDIAによる買収提案が失敗に終わった場合、Armはスタンドアロン企業として成長していく上で、重大な障壁に直面することになるという。 29ページに及ぶこの文書は、英国政府が2021年11月に英国の競争市場庁(CMA:Competition and Markets Authority)にさらなる調査の実施を指示したことに対し、Arm/NVIDIAが

                                    NVIDIAによる買収、失敗すればArmは業績低迷か
                                  • 完全マネージドな k8s ! GKE Autopilot を解説する

                                    Kubernetes / GKE ファンの皆様こんにちわ。Google Cloud の Kazuu (かずー) です。GKE Autopilot が GA になりました。弊社公式ブログに続きまして、GKE Autopilot を日本語で解説していきたいと思います。 本記事は以下、3 部構成となります。 GKE Autopilot 概要GKE Autopilot を試してみるGKE Autopilot がハマりそうなユースケースは? 1. GKE Autopilot 概要GKE Autopilot は GKE の新しいモードです。Control Plane に加えて、Node が完全マネージドになります。これまでの GKE では Node はユーザー自身が必要台数分作成し、以後の Day 2 オペレーション (e.g. アップグレード) 等も気に掛ける必要がありました。GKE Autopil

                                      完全マネージドな k8s ! GKE Autopilot を解説する
                                    • 2024年のPythonプログラミング - Uzabase for Engineers

                                      ソーシャル経済メディア「NewsPicks」で推薦や検索などのアルゴリズム開発をしている北内です。Pythonは頻繁に新機能や便利なライブラリが登場し、ベストプラクティスの変化が激しい言語です。そこで、2024年2月時点で利用頻度の高そうな新機能、ライブラリ、ツールなどを紹介したいと思います。 この記事では広く浅く紹介することに重点を置き、各トピックについては概要のみを紹介します。詳細な使用方法に関しては各公式サイト等での確認をおすすめします。なお、本記事ではOSとしてmacOSを前提としています。 環境構築 Pythonの環境構築はpyenvとPoetryの組み合わせがもっとも標準的でしょう。 以下の手順でpyenvとPythonをインストールできます。 brew install pyenv # Bashの場合 echo 'eval "$(pyenv init -)"' >> ~/.ba

                                        2024年のPythonプログラミング - Uzabase for Engineers
                                      • コスパ良すぎ。デルの7.3万円ノートPC、大学生みんな買うべきじゃない?

                                        コスパ良すぎ。デルの7.3万円ノートPC、大学生みんな買うべきじゃない?2024.03.13 11:00101,817 小暮ひさのり これ、絶対お買い得だと思うの。 間もなく4月。新生活に備えてノートPCを買わねば…。みたいに考えている人や保護者の皆さんも多いと思います。じゃあ、どれを買えばいいの? となりますよね。まさにその問題を投げかけられました。 発端は僕の馴染みのコンビニ店員のお姉さんから「大学用のPCを探しているんですが、予算10万円でなんとかなりますかねー?」と聞かれたこと。 その時は「大学4年間まともに使おうと思ったら、15万円くらいからですかねぇ」と返しました。僕的には、快適なライン(メモリ16GB・ストレージ512GB)を満たすPCは、やっぱり15万円からという認識があったんです。 …が。その後気になって調べてみたら、すげえコスパ良いPC見つけちゃった。DELL(デル)で

                                          コスパ良すぎ。デルの7.3万円ノートPC、大学生みんな買うべきじゃない?
                                        • Canonicalの軽量Kubernetes「MicroK8s」がWindowsとMacに対応。インストーラーで簡単に導入可能に

                                          Kubernetesの機能は損なわず、PCやRaspbery Piといったエッジの環境へ簡単に導入し運用することにフォーカスしつつ、サービスメッシュのIstio、Linderd、サーバレスのKnative、分散トレーシングのJeager、メトリクス収集のPrometheusなどもバンドルされています。 NvidiaのGPUを用いたGPGPUにも対応。MicroK8sの自動アップデートも可能。導入や構成がシンプルなことから、MicroK8sはローカルの開発環境などによく用いられています。 そのMicroK8sがWindowsとMacに対応したことが発表されました。 #MicroK8s is now available natively on @Windows and #macOS via the command line, as if you were using on Linux. Lea

                                            Canonicalの軽量Kubernetes「MicroK8s」がWindowsとMacに対応。インストーラーで簡単に導入可能に
                                          • NVIDIA、Ampereアーキテクチャ採用で最大2倍高速になった「GeForce RTX 3080」 ~下位の3070でも2080 Tiより高速

                                              NVIDIA、Ampereアーキテクチャ採用で最大2倍高速になった「GeForce RTX 3080」 ~下位の3070でも2080 Tiより高速
                                            • CPUの珍命令 - Qiita

                                              EDIT: はてなブックマークのエントリ だと ABCD (BCD加算) や DJNZ (ループ命令) が人気なようだ(Wikipediaしばりなもんで...) 。6502によくある JSR / RET が対応しないコーディングや、Z80で PUSH を目的外利用するような例は入れても良かったのかも。 DOOMの例を追加。 Wikipediaに個別ページができちゃうくらい有名な命令のメモ。 きっかけ このソースコードは現在の倫理上一般的でない表現が使われている箇所については当時の内容を尊重して掲載しています — ほうめい マイコンで遊んでばっかりで (@houmei) July 14, 2020 を受けて、 6809の命令のことですね。わかります >RT — Miura Hideki (@miura1729) July 14, 2020 1つのCPU命令が独立したWikipediaのページ

                                                CPUの珍命令 - Qiita
                                              • 日本語Alpacaデータを用いてJapanese-Alpaca-LoRAを作ったので公開します【期間限定デモページあり】|kun1emon

                                                ⚠️注意今回公開するのはLoRAを用いて作成したLLaMAの日本語化Adapterでありモデル自体ではありません。 LoRAをマージするベースのLLaMAは商用不可であり、今回公開するAdapterで日本語化したモデルも商用利用はできません。 OpneAIの利用規約で、OpenAIサービス、ChatGPTの出力結果を競合モデル開発用途に利用することはできません コンテンツ生成者はできません。 詳細は記事後半で述べていますが利用規約が適用されるのはコンテンツ生成者までです。 概要2022年の11月末にOpenAIからChatGPTが発表されてから、それに追随するようにGoogleからBard、MetaからLLaMAなど大規模言語モデル(LLM)が発表されました。さらにLLaMA 7Bを「text-davinci-003」を用いて「Self-Instruct」で作成された52Kのデータセット(

                                                  日本語Alpacaデータを用いてJapanese-Alpaca-LoRAを作ったので公開します【期間限定デモページあり】|kun1emon
                                                • OpenAI o1の開発者がo1の仕組みなどについて語るインタビュー(日本語訳と感想)|IT navi

                                                  ソーニャ・ホアン: 本日はノーム、ハンター、イルゲをお迎えしました。3人はOpenAIのプロジェクト・ストロベリー、別名o1の研究者です。o1はOpenAIが初めて本格的に取り組んだ汎用推論時計算で、推論、思考連鎖、推論時スケーリング則などについてチームと話し合うのを楽しみにしています。 o1への確信ソーニャ・ホアン: イルゲ、ハンター、ノーム、お越しいただきありがとうございます。そしてo1の公開おめでとうございます。まず伺いたいのですが、これがうまくいくという確信は最初からありましたか? ノーム・ブラウン: この方向性に何か有望なものがあるという確信はあったと思いますが、実際にここに至る道筋は決して明確ではありませんでした。o1を見てみると、これは一夜にしてできたものではありません。実際、何年もの研究が投入されており、その研究の多くは実際には実を結びませんでした。しかし、OpenAIとリ

                                                    OpenAI o1の開発者がo1の仕組みなどについて語るインタビュー(日本語訳と感想)|IT navi
                                                  • ソニー、裸眼で立体視できるディスプレイ--4K15.6インチで触れられるようなリアル感

                                                    ソニーは10月16日、裸眼で3DCG映像の立体視ができる全く新しいディスプレイ「Spatial Reality Display (空間再現ディスプレイ)ELF-SR1」を発表した。15.6インチサイズで、解像度は3840×2160ピクセル。触れられそうな高精細の立体ディスプレイを実現した。発売は10月31日。映画やゲームや車、建築などコンテンツクリエーター向けに提供する。想定価格は50万円前後。 「Spatial Reality Display (空間再現ディスプレイ)ELF-SR1」。右はトップバー、サイドパネル、ボトムステージなど、オプションパーツとの組み合わせ。画像はイメージ 空間再現ディスプレイは、高速ビジョンセンサーにより視線位置を認識し、パネルの全画素を一人に占有描画することで、裸眼での立体視ができる「視線認識型マイクロオプティカルレンズ方式」を採用。ディスプレイの前に座ると、

                                                      ソニー、裸眼で立体視できるディスプレイ--4K15.6インチで触れられるようなリアル感
                                                    • 月ノ美兎さんの音声合成ツール(Text To Speech) を作ってみた - Qiita

                                                      何をした? Youtube上に公開されている動画の音声から、ディープラーニング技術を用いた音声合成ツールを構築しました。 今回対象にしたのは、バーチャルユーチューバー・にじさんじの委員長こと 月ノ美兎 さん(Youtubeチャンネル) です。 ※選出理由は、単純に私がYoutube上で一番推している方だからです。 成果 動画から抽出した音声と、音声を文章に起こしたテキストの組み合わせのデータセット約50分ぶんを教師データとして学習した結果 ※学習に必要なデータ量は最低でも1時間程度と言われているので、まだまだ足りていません… 月ノ美兎さんの音声合成ツールを作ってみた https://t.co/YVdWW9vREb via @YouTube — K2 (@K2ML2) May 29, 2020 発話内容が不明瞭な箇所がありますが、一応ご本人の声に近い音声を作成することができているかと思います

                                                        月ノ美兎さんの音声合成ツール(Text To Speech) を作ってみた - Qiita
                                                      • Microsoft、AIの影響で年間水消費量がプール2,000個分に

                                                        Microsoft、AIの影響で年間水消費量がプール2,000個分に2023.09.14 20:0041,554 Angely Mercado - Gizmodo US [原文] ( そうこ ) AI台頭によって、AIがとんでもないエネルギー喰いだということが明らかになりました。電力はもちろん、炭素排出量も多く、環境への不可は仮想通貨を超えるとも言われており、AI活用とともにエネルギー効率化も求められています。 その中でも、消費量が特にに大きいのが水。 Microsoftの環境に関する報告書が公開Microsoft(マイクロソフト)が毎年公開している環境に関する報告書、2022年版がアップされました。 2021年の水使用料は477万2890トン。これが2022年には639万9415トンにまでアップ。実にたった1年で約30%も使用量が増加。オリンピックのプールでいうと、この増加量は2,000

                                                          Microsoft、AIの影響で年間水消費量がプール2,000個分に
                                                        • M4 MacBook Pro発表。M4 Max、バケモノです

                                                          M4 MacBook Pro発表。M4 Max、バケモノです2024.10.31 00:40142,751 小暮ひさのり プロ納得のモンスター、爆誕。 連日のApple(アップル)新製品祭り。iMac、Mac miniと続いて本命? とも言えるMacBook Pro、M4チップを搭載して堂々のリニューアルでございます。 Image: Apple今回のアップデートでは、基本的なボディデザインの変更はなし(カラーはスペースグレイ→スペースブラックへ変更)ですが、チップは最新のM4シリーズへと刷新。高性能なM4 Pro、さらに上を行くM4 Maxまで選べるようになっています。 Image: Apple参考までにM1世代と比べると、M4は約3倍〜3.5倍の処理性能であるとのこと。 しかもバッテリー持ちはM4モデルがもっとも長く最大24時間! M4 Proは最大22時間、M4 Maxは最大18時間と

                                                            M4 MacBook Pro発表。M4 Max、バケモノです
                                                          • ABEJAの技術スタックを公開します (2019年11月版) - ABEJA Tech Blog

                                                            2021/10/22追記:最新版は下記記事になります!こちらもご一読くださいませ。 tech-blog.abeja.asia どうも、Tech Blog編集長(自称)の緒方(@conta_)です。 よくエンジニアの方にご質問いただく ABEJAってよく聞くけど、実際どんなことやってるのかよくわからない という点をクリアにするために、事業内容と技術視点でのABEJAの取り組みを紹介したいと思います。 ABEJAに興味のある方や、未来の一緒に働くメンバーに読んでいただけると嬉しいです! 割とAIコンサルの会社と思われているらしいので、ちゃんとプロダクト作ってますよ!ということを伝えていきたい ABEJAの事業紹介 ABEJAは2012年から約7年間、機械学習・ネットワークやIoTデバイスを活用したプロダクトの研究・開発・運用を行っています。 様々な産業・業種へ機械学習の適用・運用を培ってきたナ

                                                              ABEJAの技術スタックを公開します (2019年11月版) - ABEJA Tech Blog
                                                            • Apple、初の3nmプロセス採用プロセッサ「M3」

                                                                Apple、初の3nmプロセス採用プロセッサ「M3」
                                                              • Stable Diffusion から特定の概念を忘れさせる学習を行ってみる

                                                                TL;DR ESD の手法で LoRA を学習してみたらそれっぽい感じのことができたよ VRAM 8GB で余裕で学習できるようになったよ (元は20GB要求) LoRA として保存できるようになったので重みの取り回しが良くなったよ マイナス適用によって、概念を削除するだけでなく強調することもできたよ 一度でも画像生成 AI に触ったことがあると、より楽しんで読めると思います。 論文とかどうでもいいから学習方法知りたい! という方は 実際に学習してみる へどうぞ! 今回作成したもの コード: モデルなど: 前提 Stable Diffusion とは、Stability AI らが公開したオープンソースの画像生成 AI であり、テキストによる指示で様々な画像を生成することができる。 本来の Stable Diffusion は、実写画像や海外風のイラストを出力することが得意だが、アジア系の

                                                                  Stable Diffusion から特定の概念を忘れさせる学習を行ってみる
                                                                • Google、AIでファイルの種類を高速正確に判別できる「Magika」をオープンソースで公開

                                                                  Googleは、AIを用いることでファイルの種類を高速かつ正確に判別できるツール「Magika」をオープンソースで公開したと発表しました。 Magikaは、あるファイルの中味が何なのか、記述されたプログラミング言語の種類、動画や画像、音声などのフォーマットの種類、ExcelやWord、PDFなどのオフィス系ソフトウェアの種類、OSの実行形式バイナリなどの種類を瞬時に判別してくれます。 下記はコマンドラインとしてMagikaを実行した例で、フォルダ内のファイルの種類を出力しています。 特別に最適化された1MBのモデルでを用いて推論を実行 Magikaはファイルの判別に、Kerasを用いて特別に最適化されたディープラーニングによる、わずか1MBのモデルを用いていると説明されています。 このモデルは推論エンジンのOnnx上で実行されています。実行速度はGPUを用いずCPU上で処理されたとしても数

                                                                    Google、AIでファイルの種類を高速正確に判別できる「Magika」をオープンソースで公開
                                                                  • GPT-3.5-turboの新機能を使ってCVPRの論文を良い感じに検索・推薦・要約するシステム

                                                                    はじめに 5月からTuringに中途入社した棚橋です。リクルートで広告配信システムの開発や量子アニーリングに関する研究開発に関わっていました。現在、Turingのリサーチチームで完全自動運転システムの研究開発に取り組んでいます。 3行でまとめ 今月開催されるCVPR2023では約2400本もの論文が発表されるため、見るべき論文を事前に検索しておきたい。 社内で行われた大規模言語モデル(LLM)ハッカソンをきっかけに、LLMのEmbeddingを用いて論文の「検索・推薦・要約」システムを作成し公開した。 検索クエリに文章を使った曖昧な検索が行えたり、類似論文の推薦ができる。6/13にアップデートされたGPT3.5の新機能であるファンクション機能を使うことで、複数観点に分けて研究内容の要約を出力させた。 ↓ 今回作成した、LLMを使ったCVPR論文検索システム 事の発端 Turingは、ハンド

                                                                      GPT-3.5-turboの新機能を使ってCVPRの論文を良い感じに検索・推薦・要約するシステム
                                                                    • 「NVIDIA最新GPUの20倍速い」史上最速を謳うAIチップ「Sohu」

                                                                      米AIスタートアップ「Etched」は6月25日(現地時間)、ChatGPTなど最新のAI技術の基盤となっている「Transformer」アーキテクチャーに特化したチップ「Sohu」を発表した。この発表は、現在NVIDIAが支配的な地位を占めるAIチップ市場に、新たな競争をもたらす可能性がある。 Transformer処理に特化 AIチップ市場は現在NVIDIAが圧倒的なシェアを持つ。同社の汎用GPUは様々なAIモデルを効率的に処理できる柔軟性から市場の約80%を占めている。 多くの大手テクノロジー企業がAI開発のためにNVIDIAのチップに数十億ドルを投資しているのが現状だ。 Etchedの「Sohu」は、ASIC(Application-Specific Integrated Circuit:特定用途向け集積回路)と呼ばれる、特定の用途に最適化された集積回路だ。汎用性は低いものの、特定

                                                                        「NVIDIA最新GPUの20倍速い」史上最速を謳うAIチップ「Sohu」
                                                                      • エイプリルフールに便乗しているサイトまとめ2024年版

                                                                        By ほしのるる 毎年おなじみのエイプリルフールが今年も始まりました~!どれが本当でどれがウソなのか、もしかしたらネタのふりをしているだけでマジなのではないか?というようにして現実と虚構が溶け合っていくカオスな一日のはじまりはじまり~。 ◆エイプリルフールのネタのタレコミのやり方 この記事中に未掲載のネタで「エイプリルフールやってる!」というのを発見したときや「うちもエイプリルフールをやってます!」という自薦の連絡はネタのタレコミ用メールフォームから送信してもらえればOKです! ・掲載されやすくなる押さえるべきポイント GIGAZINE編集部員がサイトを見に行っても「どれがエイプリルフールのネタなのだ……?」ということで瞬時に判断できない&ネタの意味がわからず記事化をあきらめてしまうしかない……となったり、「どこかがいつもと違うらしいが元のサイトの状態を知らないので、どこがどう変化したかま

                                                                          エイプリルフールに便乗しているサイトまとめ2024年版
                                                                        • 世界最大規模のディープラーニングを「富岳」で実施して世界一になりました - fltech - 富士通研究所の技術ブログ

                                                                          はじめに こんにちは。富士通株式会社ICTシステム研究所のMLPerf HPC五人衆です。先週、国際学会SC’21 において、理化学研究所/富士通が共同で開発した新しいスーパーコンピュータ(スパコン)「富岳」がスパコンランキングで4期連続の4冠(TOP500, HPCG, HPL-AI, Graph500)を獲得しましたが、同会議で発表された、実際のディープラーニング(DL)学習処理に特化したMLPerfTM HPC ベンチマークにおいても世界一を獲得しました。 本ブログでは、このMLPerf HPCの一つのアプリケーションであるCosmoFlowの学習を「富岳」で大規模に行い世界一となった、その挑戦についてお話させてもらいます。 はじめに 背景 MLPerf HPCって何?(白幡) CosmoFlowって何?(田渕) 「富岳」って何?(田渕) プロセッサ 通信ネットワーク ストレージ 準

                                                                            世界最大規模のディープラーニングを「富岳」で実施して世界一になりました - fltech - 富士通研究所の技術ブログ
                                                                          • 【西川善司が語る”ゲームの仕組み” Vol.2】いつもの日常とゲームの世界では時間の流れ方が違う?ゲームは”離散時間”で出来ている

                                                                            我々が住んでいる現実世界には時間が流れていますよね。もし、この時間が止まったらどうなるでしょうか。 そう、みんなピタっと止まって動かなくなるでしょう。そういう「時間が止まる」系の物語は漫画やアニメの世界では良く用いられるモチーフですが、実際、時間が止まった世界を見たことがある人はいません。 なぜなら現実世界では常に時間が流れていますし、仮に止まった瞬間があったとしても、我々にその事象を知覚することはできません。知覚にも時間が必要だからです。 それはそれとして、我々の現実世界の時間についてもう少し深く考えてみます。 時間は1分が60秒、1時間は60分…みたいな感じで捉えられていますよね。実生活で、よく用いられる時間の最小単位は1秒でしょうか。「そんな簡単なこと、”秒”で終わらせられるぜ」と強がったことのある人、いっぱいいると思います。 ただ、ストップウォッチを手に取って、徒競走のタイムを計測

                                                                              【西川善司が語る”ゲームの仕組み” Vol.2】いつもの日常とゲームの世界では時間の流れ方が違う?ゲームは”離散時間”で出来ている
                                                                            • NTT版大規模言語モデル「tsuzumi」 | NTT R&D Website

                                                                              近年、ChatGPTを始めとする大規模言語モデル*1に大きな注目が集まっておりますが、これらは膨大な知識をモデル内に有することで高い言語処理性能を示す一方、学習に要するエネルギーは、原発1基1時間分の電力量が必要*2とも言われており、また、運用には大規模なGPUクラスタを必要とし様々な業界に特化するためのチューニングや推論にかかるコストが膨大であることから、サステナビリティおよび企業が学習環境を準備するための経済的負担面で課題があります。 NTTでは、これらの課題を解決する研究開発を進め、今回、軽量でありながら世界トップレベルの日本語処理性能を持つ大規模言語モデル「tsuzumi*2」を開発しました。「tsuzumi」のパラメタサイズは6~70億と軽量であるため、市中のクラウド提供型LLMの課題である学習やチューニングに必要となるコストを低減します。「tsuzumi」は英語と日本語に対応し

                                                                                NTT版大規模言語モデル「tsuzumi」 | NTT R&D Website
                                                                              • Ryzen 7 3700XでオールM.2 SSDの質実剛健系PCを組んだ | なうびるどいんぐ

                                                                                Ryzen 7 3700Xを使用してオールM.2 SSDの質実剛健系PCを組みました。 パーツ構成やそのパーツを選んだ動機などの話をします。 パソコンの買い替え 個人的な動機とか読者の方は興味ないでしょうから手短に。 パソコンを買い替えたいと思いました。 CPUなんてSandyおじさんですらないAMD FXシリーズだし、M.2とか使えないし、グラボもそろそろ力不足……CPU的なパワー不足は感じていなかったけど、足回りの方が気になり始めてきた。 それに今Zen2 Ryzenめっちゃ流行ってるし良さそうだし欲しくない?欲しい!よし、買い替えだ!!という具合。 というわけでPCを新たに組み立てることに。 シンプルに行こう 今回のPCで重視した方針は「シンプル」です。 前に使っていたPCではグラボ2枚刺し、SSD+HDD、回転数なんて一度も調整しなかったファンコン、DL販売化の流れで使われなくなっ

                                                                                  Ryzen 7 3700XでオールM.2 SSDの質実剛健系PCを組んだ | なうびるどいんぐ
                                                                                • AMD、ザイリンクスを3兆6000億円で買収 株式交換で - 日本経済新聞

                                                                                  【シリコンバレー=佐藤浩実】米半導体大手のアドバンスト・マイクロ・デバイス(AMD)は27日、同業の米ザイリンクスを買収すると発表した。株式交換による買収額は350億ドル(約3兆6000億円)。中長期で成長が見込めるデータセンターや通信分野の事業基盤を強化し、米インテルや米エヌビディアに対抗する。規制当局の承認取得を進め、2021年末までの統合をめざす。買収はすべて株式交換で実施し、ザイリンク

                                                                                    AMD、ザイリンクスを3兆6000億円で買収 株式交換で - 日本経済新聞