並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 14 件 / 14件

新着順 人気順

lambda labs gpu cloudの検索結果1 - 14 件 / 14件

  • Docker一強の終焉にあたり、押さえるべきContainer事情

    章立て はじめに Docker・Container型仮想化とは Docker一強時代終焉の兆し Container技術関連史 様々なContainer Runtime おわりに 1. はじめに Containerを使うならDocker、という常識が崩れつつある。軽量な仮想環境であるContainerは、開発からリリース後もすでに欠かせないツールであるため、エンジニアは避けて通れない。Container実行ツール(Container Runtime)として挙げられるのがほぼDocker一択であり、それで十分と思われていたのだが、Dockerの脆弱性や消費リソースなどの問題、Kubernetes(K8s)の登場による影響、containerdやcri-o等の他のContainer Runtimeの登場により状況が劇的に変化している。本記事では、これからContainerを利用したい人や再度情報

      Docker一強の終焉にあたり、押さえるべきContainer事情
    • 歴史・年表でみるAWS全サービス一覧 -アナウンス日、General Availability(GA)、AWSサービス概要のまとめ- - NRIネットコムBlog

      小西秀和です。 Amazon Web Services(AWS)に関する情報や魅力を様々な観点から記事にしてみていますが、技術史が好きなこともあって今回はAWSサービスの発表の歴史を年表でまとめました。 AWSからもWhat's Newとして公式アナウンスは発表されていますが、アナウンス日、GA日(一般提供開始日)、サービス名、サービス概要といった情報に圧縮して時系列でAWSサービス一覧を一枚もので確認できる記事が今まで欲しかったので自分で作成してみることにしました。 AWS全サービスの歴史年表の作成方法 AWS全サービスの歴史年表の対象となるAWSサービスは次の手順で選定しました。 AWSサービス・製品一覧「Cloud Products(英語版)」にあるサービスのうち「~ on AWS」といったサードパーティー製品がメインとなるサービスを除いたリストを作成 AWSサービス・製品一覧に記載

        歴史・年表でみるAWS全サービス一覧 -アナウンス日、General Availability(GA)、AWSサービス概要のまとめ- - NRIネットコムBlog
      • Infrastructure from Code (IfC) ツールまとめ - maybe daily dev notes

        昨今Infrastructure from Code (IfC)という概念をよく耳にします。先日もAWSのGregor Hohpeが関連する記事を書いていました。 architectelevator.com この記事では、Infrastructure from Codeとはなにか簡単に紹介し、具体的にどのようなツールがあるか網羅的にまとめます。 Infrastructure from Codeとはなにか Infrastructure from Code (IfC) とは、その名の通り、Infrastructure as Code (IaC) に関連する概念です。IaCとの根本的な違いは、IaCは開発者がインフラを明示的に意識して構成を記述するのに対し、IfCでは開発者がインフラをできるだけ意識しないよう抽象化を試みていることです。これにより、差別化に繋がらない重労働ができる限り排除された高

          Infrastructure from Code (IfC) ツールまとめ - maybe daily dev notes
        • AWS・Azure・Cudoなどが提供するクラウドGPUが1時間あたり何ドルで利用できてどういう構成なのかの一覧表

          ニューラルネットワークのトレーニングや実行にはGPUが使われることが多く、クラウドサービスのGPUの需要はAIの普及に伴い高まりつつあります。そんなクラウドGPUの構成や価格を、AI関連のニュース&コミュニティサイト・The Full Stackが公開しました。 Cloud GPUs - The Full Stack https://fullstackdeeplearning.com/cloud-gpus/ 表はクラウドサーバーとサーバーレスの2種類に分かれています。ピックアップされたサービスはAmazon Web Service(AWS)やMicrosoft Azure、Cudo Compute、Google Cloud Platform(GCP)、AWS Lambdaなど。Hugging Faceなど一部サービスの記載はありません。 クラウドサーバーの表がこんな感じ。最左列にサービス名

            AWS・Azure・Cudoなどが提供するクラウドGPUが1時間あたり何ドルで利用できてどういう構成なのかの一覧表
          • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

            Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

              GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
            • Kaggle Competitions Grandmaster になるまでの 6年半を振り返る - かえるのプログラミングブログ

              はじめに Kaggle遍歴 バックグラウンド Kaggle との出会い 思い出深いコンペたち Kaggle の取り組み方 Kaggle で得られたもの 今後 おわりに はじめに こんにちは、kaerururu です。 Kaggle を始めて約6年半、目標だった Competitions Grandmaster になることができました。 一つの節目として、振り返り記事を書いてみようと思います。 www.kaggle.com Kaggle遍歴 略表 日付 Event 2018/08/07 初サブ (Titanic) 2018/12/19 初メダル (銅) 2019/02/14 Expert 2019/04/10 初金メダル 2019/06/29 Master 2024/12/20 Grandmaster 金メダルを獲得したコンペ コンペ 分野 チーム 成績 メダル PetFinder.my A

                Kaggle Competitions Grandmaster になるまでの 6年半を振り返る - かえるのプログラミングブログ
              • 週刊Railsウォッチ: SorbetのRuby AOTコンパイラが公開、「Compiler Explorer」にRubyが追加、Ractorで非同期通信ほか(20210823後編)|TechRacho by BPS株式会社

                週刊Railsウォッチについて 各記事冒頭には🔗でパーマリンクを置いてあります: 社内やTwitterでの議論などにどうぞ 「つっつきボイス」はRailsウォッチ公開前ドラフトを(鍋のように)社内有志でつっついたときの会話の再構成です👄 お気づきの点がありましたら@hachi8833までメンションをいただければ確認・対応いたします🙏 TechRachoではRubyやRailsなどの最新情報記事を平日に公開しています。TechRacho記事をいち早くお読みになりたい方はTwitterにて@techrachoのフォローをお願いします。また、タグやカテゴリごとにRSSフィードを購読することもできます(例:週刊Railsウォッチタグ) 🔗Ruby 🔗 SorbetのRuby AOTコンパイラ(Ruby Weeklyより) 元記事: Sorbet Compiler: An experime

                  週刊Railsウォッチ: SorbetのRuby AOTコンパイラが公開、「Compiler Explorer」にRubyが追加、Ractorで非同期通信ほか(20210823後編)|TechRacho by BPS株式会社
                • Who Owns the Generative AI Platform? | Andreessen Horowitz

                  We’re starting to see the very early stages of a tech stack emerge in generative artificial intelligence (AI). Hundreds of new startups are rushing into the market to develop foundation models, build AI-native apps, and stand up infrastructure/tooling. Many hot technology trends get over-hyped far before the market catches up. But the generative AI boom has been accompanied by real gains in real m

                    Who Owns the Generative AI Platform? | Andreessen Horowitz
                  • Amazon Bedrock now provides access to Meta’s Llama 2 Chat 13B model | Amazon Web Services

                    AWS News Blog Amazon Bedrock now provides access to Meta’s Llama 2 Chat 13B model Update: November 29, 2023 — Today, we’re adding the Llama 2 70B model in Amazon Bedrock, in addition to the already available Llama 2 13B model. As its name implies, the Llama 2 70B model has been trained on larger datasets than the Llama 2 13B model. If you’re wondering when to use which model, consider using Llama

                      Amazon Bedrock now provides access to Meta’s Llama 2 Chat 13B model | Amazon Web Services
                    • クラウドGPUまとめ(個人向け) Lambda Labsなど - Qiita

                      間借りでGPU 自書の宣伝を兼ねて流行りのAIツールが試せるAIスタジオなるサイトを作成しようと画策しております。 1番必要なのは GPU であり、これが無料で使えればいいのですがそういうわけにもいきません。 ただせいぜい1~3日くらいしか使わないので、数日間GPU環境をレンタルできるサイトを探しましたので紹介します。(勝手に"間借りGPU"と名付けます) もちろん完全に網羅しているわけではないことはご了承下さい。(できれば更新します) また次の分類も私が勝手に付けたものですので、よそで使うと恥をかくのでご注意下さい。 デモサイト系 最初にデモサイト一体型のサービスを紹介します。 これらは主にオープンソースAIのデモのためにGPUが利用できるもので、便利ではあるのですが、Pythonで試行錯誤しながら使いたいという方は不向きになります。 ①HuggingFace Spaces Spaces

                        クラウドGPUまとめ(個人向け) Lambda Labsなど - Qiita
                      • Nvidia H100 GPUs: Supply and Demand

                        This post is an exploration of the supply and demand of GPUs, particularly Nvidia H100s. This post went mega viral. It was on the frontpage of HN, techmeme, many email newsletters, got tweets from Andrej Karpathy and others, comments from Mustafa (who will have $1B of GPUs online soon) from Inflection and Emad from Stability, and various asset managers and AI founders reached out. If you haven’t r

                          Nvidia H100 GPUs: Supply and Demand
                        • コスパ良いGPU Cloudを使いたい:Lambda Labs

                          初めての投稿ですがよろしくお願いします、ハンです。 私は福岡の株式会社Fusicの機械学習チームで勤めている者です。機械学習やAWS運用など、困っていることがありましたら気軽にお声かけてください。 この記事では、Lambda LabsのGPU Cloud Serviceを使ってみたレビュー・感想などを書いてみたいと思います。 要約 Lambda Labs、お値段だけを考えると良い! モニタリングなど、提供するサービスが少ないので、自分なりの工夫が必要 使用可能なインスタンス・ストレージの制約があり、Persistanceストレージ連動ができなかったのはすごく残念 なぜLambda Labs?:お値段! 皆さんはクラウドサービスを利用する際、何を一番の選択基準にするのでしょうか? 使用したいGPUの種類や数・求められるセキュリティ・サポート機能など、さまざまな判断基準があると思いますが、以下

                            コスパ良いGPU Cloudを使いたい:Lambda Labs
                          • NVIDIA、DGX Spark および DGX Station パーソナル AI コンピューターを発表

                            NVIDIA、DGX Spark および DGX Station パーソナル AI コンピューターを発表 NVIDIA Grace Blackwell を搭載したデスクトップ スーパーコンピューターにより、開発者、研究者、データ サイエンティストの手元にアクセラレーテッド AI を提供。このシステムは、ASUS、Dell Technologies、HP、Lenovo などの主要なコンピューターメーカーから提供。 【プレス リリース】カリフォルニア州サンノゼ — GTC — 2025 年 3 月 18 日ー NVIDIA は本日、NVIDIA Grace Blackwell プラットフォームを搭載した DGX™ パーソナル AI スーパーコンピューターを発表しました。 DGX Spark — 旧 Project DIGITS — と DGX Station™ は、Blackwell Ultr

                              NVIDIA、DGX Spark および DGX Station パーソナル AI コンピューターを発表
                            • GitHub Actions as a time-sharing supercomputer

                              The time-sharing computers of the 1970s meant operators could submit a job and get the results at some point in the future. Under the guise of "serverless", everything old is new again. AWS Lambda reinvented the idea of submitting work to a supercomputer only to receive the results later on, asynchronously. I liked that approach so much that in 2016 I wrote a prototype to unlock the idea of functi

                                GitHub Actions as a time-sharing supercomputer
                              1