並び順

ブックマーク数

期間指定

  • から
  • まで

481 - 520 件 / 1446件

新着順 人気順

Azureの検索結果481 - 520 件 / 1446件

  • DynalystのML監視の取り組み事例 | CyberAgent Developers Blog

    ML監視は従来のソフトウェア開発の監視要素に加え、モデルや予測値、データに関する監視が必要とされています。 監視の優先順位 上述のようにML監視項目は数多くあり、いきなり全ての監視項目を導入するのは難しいです。 クラウドベンダー各社のMLOpsの成熟度モデル [3]のように、ML監視も段階的に取り組んでいくことが望ましいと言えます。 A Comprehensive Guide on How to Monitor Your Models in Productionの記事ではGoogleのMLOps成熟度モデルに合わせた監視項目を取り上げています。 引用: A Comprehensive Guide on How to Monitor Your Models in Production [4] EVIDENTLY AIが公開してるMonitoring ML systems in product

      DynalystのML監視の取り組み事例 | CyberAgent Developers Blog
    • ハイブリッド検索で必ずしも検索性能が上がるわけではない - Ahogrammer

      最近では、RAG(Retrieval Augmented Generation)を使って、検索して得られた文書を生成時に活用することがありますが、その性能を改善するための手法の1つとしてハイブリッド検索が知られています。ハイブリッド検索は、2つ以上の異なる検索技術を組み合わせた検索方法です。最近は、全文検索とベクトル検索の組み合わせを見ることが多く、その良いとこ取りをすることで検索性能を改善します。 ハイブリッド検索の有効性はいたるところで報告されていますが、「適当に全文検索とベクトル検索を組み合わせるだけで性能が上がるのか?」というとそれには疑問があります。ハイブリッド検索では、全文検索とベクトル検索の結果をランク融合アルゴリズムを使って統合することが行われます。そのような仕組み上、どちらか片方の検索性能が低い場合、全体としての性能が下がることが考えられるはずです。 そこで本記事では、日

        ハイブリッド検索で必ずしも検索性能が上がるわけではない - Ahogrammer
      • Azure OpenAI Service の Assistants API でデータ分析 - Taste of Tech Topics

        こんにちは、igaです。 最近は気温の上下が大きいので、服装選びが大変ですね。 今回は、Azure OpenAI Servce Assistants APIを使ってみました。 Azure OpenAI Servce Assistants APIに横浜市の人口データを投入して、人口の増減がどう推移しているのか自動で分析させてみました。 Azure OpenAI Servce Assistants API Azure OpenAI Servce Assistants APIとは Azure OpenAI Servce Assistants APIは、2024年4月現在パブリックプレビューとして利用できる機能です。 learn.microsoft.com Azure OpenAI Servce Assistants API(以降、Assistantsと表記します)により、Azure OpenAI

          Azure OpenAI Service の Assistants API でデータ分析 - Taste of Tech Topics
        • Microsoftの言い分は? “ざる”なセキュリティ慣行にベンダーらの追求相次ぐ

          サイバーセキュリティ企業TenableのCEO(最高経営責任者)であるアミット・ヨラン氏は、同社の研究者が2023年3月に発見した「Microsoft Azure」(以下、Azure)の重大な脆弱(ぜいじゃく)性が修正されていないと主張しており、Microsoftはセキュリティ慣行について新たな調査を受けている。 ヨラン氏によると、この脆弱性を利用して研究者は銀行の機密情報にアクセスできたという。Microsoftは部分的な修正を実施したのみであり、完全には解決されていない。後にTenableは部分的な修正プログラムを回避する方法も発見したとしている。 Microsoftの不誠実な対応にベンダーから批判が相次ぐ この新たな脆弱性は、過去10年にわたってMicrosoftの製品に見つかった脆弱性とパターンを同じくするものだ。「同社は顧客のセキュリティを第一に考えることができていない」とヨラン

            Microsoftの言い分は? “ざる”なセキュリティ慣行にベンダーらの追求相次ぐ
          • (5ページ目)「怠惰であれ!」――“ガチ三流”エンジニアを生まれ変わらせた“誰でもできる生産性爆上げのスキル” | 文春オンライン

            「2:8の法則」というのがあります。20%の仕事が80%のバリューを生んでいる。あれもこれもと手を出さず、インパクトのある20%の仕事に集中して80%のバリューを生んだら、次のプロジェクトのインパクトのある20%をやれば、160%となる。省いた8割って実はやらなくてもさほど支障のない仕事だったりする。この繰り返しが彼らの圧倒的な生産性を生んでいるんです。 マインドセットの本質を理解し、仕事と人生が激変 ――日本中で「生産性の向上」が課題となるなか、非常に示唆に富んだ視点ですね。 牛尾 「生産性の高さ」といった時に、日本人は効率よく「沢山つくる」ことをイメージしがちです。でも生産性の高さは量じゃない。いかにこれまで世の中になかったイノベ―ティブでインパクトのある仕事を示すかが、真の生産性です。 いまの上司のインド人と「やることリスト」の整理を話し合うと、「これ、スコープアウトしようか」と簡単

              (5ページ目)「怠惰であれ!」――“ガチ三流”エンジニアを生まれ変わらせた“誰でもできる生産性爆上げのスキル” | 文春オンライン
            • Examining the Deception infrastructure in place behind code.microsoft.com

              The domain name code.microsoft.com has an interesting story behind it. Today it’s not linked to anything but that wasn’t always true. This is the story of one of my most successful honeypot instances and how it enabled Microsoft to collect varied threat intelligence against a broad range of actor groups targeting Microsoft. I’m writing this now as we’ve decided to retire this capability. In the pa

                Examining the Deception infrastructure in place behind code.microsoft.com
              • git diff+ChatGPTでPRの説明文作成しよう! - Qiita

                はじめに 組織で開発を行っている皆さんは普段からPull Request(PR)を作っていますよね?(決めつけ) masterブランチに直接pushしている方も中にはいるかもしれませんが、会社やチームで開発を行っていると、PRを作成する頻度は高いのではないかと思います。 そしてPRを作成する際には、その説明文を書く必要があります。 コードだけを読んで修正意図が伝わればいいですが、そうはいってもすべての背景をコードベースで伝えるのには限度があります。 しかし、だからといって修正の背景や詳細を、開発者自身が客観的な文章で伝えるのは簡単なことではありません。 そこで、この記事ではgit diffとChatGPTを組み合わせて、自動的にPRの説明文を生成する方法をご紹介します。 How to make PR? 繰り返しになりますが使うのはgit diffコマンドとChatGPTだけなんです!(お昼

                  git diff+ChatGPTでPRの説明文作成しよう! - Qiita
                • 日本にも“社内GPT”の導入相次ぐ 日本マイクロソフトが語る最新動向

                  「日本でAzure OpenAI Serviceを活用している企業数は560社以上」──日本マイクロソフトが10月23日に開催した、AIに関するメディア向け説明会にてそのように明かした。2023年1月のサービス提供から約9カ月での成果で、全世界では1万1000社を突破。中でも日本では、金融や自治体での利用が他国よりも非常に速く進んでいるという。 Azure OpenAI Serviceは、Azureから米OpenAIが提供する「GPT-3.5」や「DALL-E」などのAIモデルのAPIにアクセスできるサービス。各企業のセキュリティポリシーに合わせつつ、AIモデルをアプリケーションに組みことができる。 同社のクラウド&AIソリューション事業本部長で執行役員でもある岡嵜禎常務は「なぜこれだけ利用が進んでいるかというと、クライアントにとって効果が分かりやすく、『これはいけるぞ』と手応えを感じても

                    日本にも“社内GPT”の導入相次ぐ 日本マイクロソフトが語る最新動向
                  • 「Active Directory」から「Microsoft Entra ID」への移行が進む“3つの理由”

                    関連キーワード Microsoft(マイクロソフト) | Active Directory | ID管理 MicrosoftのID・アクセス管理システム「Active Directory」(AD)は、企業のオンプレミスシステムにおけるファイル管理の中核を担い続けてきた。MicrosoftはADのクラウドサービス版である「Microsoft Entra ID」(旧「Azure Active Directory」)も提供している。Microsoft Entra IDは一部の機能がADとは異なるため、必ずしもADの代替になるわけではないが、Microsoft Entra IDへの移行は検討すべき選択肢になる。なぜMicrosoft Entra IDへの移行が進むのか。3つのポイントを紹介する。 「Microsoft Entra ID」への移行が進む3つの理由 併せて読みたいお薦め記事 Micro

                      「Active Directory」から「Microsoft Entra ID」への移行が進む“3つの理由”
                    • 量子コンピューティングの膨大なエラーの原因となる「ノイズ」を800倍抑える次世代技術をMicrosoftとQuantinuumが開発したと発表

                      将来的な実用化に向けて開発が進められる量子コンピューターは、記事作成時点で量子ビットの初期状態の設定から出力の読み取りまでのあらゆる場面でエラーが発生する可能性があり、できることが大きく制限されています。2024年4月3日、Microsoftと量子コンピューティング企業のQuantinuumが、「従来の物理量子ビットからエラーの発生を800倍抑えられる、前例のないレベルの信頼性を持った量子コンピューターの開発に成功した」と報告しています。 Advancing science: Microsoft and Quantinuum demonstrate the most reliable logical qubits on record with an error rate 800x better than physical qubits - The Official Microsoft Bl

                        量子コンピューティングの膨大なエラーの原因となる「ノイズ」を800倍抑える次世代技術をMicrosoftとQuantinuumが開発したと発表
                      • toB 向け E ラーニングシステムに ChatGPT を導入して業務効率化を達成した事例について語ってもらいました | MEDLEY Developer Portal

                        2023-11-30toB 向け E ラーニングシステムに ChatGPT を導入して業務効率化を達成した事例について語ってもらいましたはじめにエンジニアの山田です。 弊社のニュースリリースにあるのですが、ジョブメドレーアカデミー(以下、アカデミー)では Azure OpenAI Service の GPT モデルを駆使した新機能「研修作成アシスタント」をリリースしています。 この生成 AI を活用した機能により研修作成担当者の作業時間を 75%軽減し、業務効率化に寄与するものになっています。 今回はこの研修作成アシスタントの開発について、担当した二人に話を聞きました。 インタビュイー紹介岸田さんSES 企業で業務システム開発、オフショア開発をしている会社でブリッジエンジニアという経験を経て、2019 年メドレー入社。 その後ジョブメドレーで開発をリード。現在はアカデミーのプロダクト責任者

                          toB 向け E ラーニングシステムに ChatGPT を導入して業務効率化を達成した事例について語ってもらいました | MEDLEY Developer Portal
                        • プログラミング支援AIサービスが主要各社から出そろう 各サービスのまとめ GitHub/AWS/Google/GitLab/JetBrains

                          この記事は新野淳一氏のブログ「Publickey」に掲載された「プログラミング支援AIサービスが主要各社から出揃う、各サービスのまとめ。GitHub/AWS/Google/GitLab/JetBrains」(2023年12月18日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 AIがプログラミングを支援してくれるサービスが主要各社から出そろいました。 Publickeyではこれまで各社の発表時点でそれぞれのサービスを紹介してきましたが、ここであらためて主要各社のプログラミング支援AIサービスをまとめます。 本記事では、各AIサービスごとの主な機能などをリストアップしています。ただし、実際にはAIに指示などをすれば品質の差異はあれどおそらく何らかの結果は返ってくるであろうこと、この分野は急速に進化していて各社とも積極的な能力向上と機能追加を行っていくであろうことから

                            プログラミング支援AIサービスが主要各社から出そろう 各サービスのまとめ GitHub/AWS/Google/GitLab/JetBrains
                          • 「エヌビディアのGPUサーバーが確保できない」、国内のLLM開発企業が悲鳴

                            生成AI(人工知能)ブームが過熱する現在、大規模言語モデル(LLM)の開発に必要なAI用GPU(画像処理半導体)インフラの確保が難しくなっている。特にパブリッククラウドを利用するユーザーがLLM開発に適したGPUサーバーのインスタンスを確保できない状態が続いており、LLMを開発する国内企業が悲鳴をあげている。このままGPUインフラを十分に確保できなければ、国内企業による独自LLMの開発が想定以上に遅れる恐れがある。 「LLMの開発に使いたい米NVIDIA(エヌビディア)のAI用GPU『NVIDIA A100』を搭載するGPUサーバーは、大手パブリッククラウドではほぼ確保できない状態だ。先週(2023年8月最終週)は1台も確保できなかった」――。そう語るのは、AI開発のスタートアップであるストックマークのResearch Divisionを率いる近江崇宏執行役員だ。 Amazon Web S

                              「エヌビディアのGPUサーバーが確保できない」、国内のLLM開発企業が悲鳴
                            • OpenAI Dev Day 2023 まとめ - 吉田の備忘録

                              今朝、サンフランシスコで開催された OpenAI Dev Day 2023 での発表内容をまとめました。 発表された6つのテーマ 今回のアナウンスメントは主に6つのテーマで発表されていました。 コンテキストの長さの拡張(Context length)より多くのコントロール(More Control)より多くの知識(Better Knowledge)新しいモダリティ(New modalities)カスタマイズ性(Customization)より実行上限(Higher rate limits)+価格改定 GPT-4 Turboの導入 より高い能力を持ち、2023年4月までの世界の出来事に関する知識を有しています。128kのコンテキストウィンドウをサポートし、一度のプロンプトで300ページ以上のテキストに相当する情報を処理することができます。さらに、パフォーマンスが最適化されており、入力トークン

                                OpenAI Dev Day 2023 まとめ - 吉田の備忘録
                              • マッキンゼーが独自のジェネレーティブAIツール「Lilli」を発表、社員7,000人が利用し生産性が向上 | AMP[アンプ] - ビジネスインスピレーションメディア

                                マッキンゼーが自社開発のジェネレーティブAIツールを発表 世界最大級のコンサルティング企業マッキンゼーが独自のジェネレーティブAIツール「Lilli(リリ)」を発表した。 これは、同社ジャッキー・ライトCTOの指揮のもと、テクノロジー部門である「ClienTech」チームが設計した社員用のチャットアプリケーション。社内10万以上のドキュメントとインタビュースクリプトデータを基に開発されており、情報やインサイト、データ、プランなどを生成することができる。また、プロジェクトに最も適した内部の専門家をレコメンドすることも可能であるという。 マッキンゼーの発表によると、クライアントとの折衝開始時、プロジェクト計画の作成が重要な第一歩となるが、同フェーズにおいては、関連するリサーチドキュメントを見つけだし、適切な専門家を特定する作業が行われる。この作業では、膨大な情報を検索する必要があり、特に新人社

                                  マッキンゼーが独自のジェネレーティブAIツール「Lilli」を発表、社員7,000人が利用し生産性が向上 | AMP[アンプ] - ビジネスインスピレーションメディア
                                • Introducing Command R+: A Scalable LLM Built for Business

                                  Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads, and is available first on Microsoft Azure Today, we’re introducing Command R+, our most powerful, scalable large language model (LLM) purpose-built to excel at real-world enterprise use cases. Command R+ joins our R-series of LLMs focused on balancing high efficiency with strong accuracy, enabling b

                                    Introducing Command R+: A Scalable LLM Built for Business
                                  • マイクロソフト、「Excel」にPythonを統合--パブリックプレビュー公開

                                    Microsoftは米国時間8月22日、「Python in Excel」のパブリックプレビューを公開したと発表した。この追加機能により、ユーザーはスプレッドシートに直接「Python」のコードを入力できるようになる。 Python in Excelにより、データアナリスト、エンジニア、マーケターや、データサイエンスを学ぶ学生などは、ExcelでPythonコードを使って複雑な統計分析、高度な可視化、機械学習を実行できる。 このプレビュー版では、Excelのリボン内にある関数セクションで「Insert Python」>「Try preview」の順に選択すると、ダイアログが表示される。PythonはExcelに直接統合されているため、追加のソフトウェアをインストールする必要はない。 Microsoftはこの新機能について、データサイエンティストやエンジニア向けでありながら初心者でも使いやす

                                      マイクロソフト、「Excel」にPythonを統合--パブリックプレビュー公開
                                    • ITmedia NEWSを読むIT技術者はどんなプログラミング言語を使う? 読者調査の結果から

                                      ITmedia NEWSを読むIT技術者は、どんなプログラミング言語を業務で使っているのか──ITmedia NEWS読者に対しアンケートで調べた。業務経験のある言語を聞いた(複数回答可)ところ、最も多いのは「VBA」(40.9%)だった。 2位は「Java」(39.9%)、3位は「JavaScript」(38.9%)、4位は「Python」(31.2%)、5位は「C++」(30.2%)、6位は「PHP」(23.2%)、7位は「C#」(18.9%)、8位は「COBOL」(17.9%)、9位は「GAS(Google Apps Script)」(9.3%)、10位は「Ruby」(8.6%)だった。 業務経験のあるフレームワークやツールなどを複数回答可で聞いたところ、1位は「HTML」(54.2%)、2位が「SQL」(50.5%)、3位が「Linux(RHEL/CentOS)」(39.5%)、4

                                        ITmedia NEWSを読むIT技術者はどんなプログラミング言語を使う? 読者調査の結果から
                                      • 44歳でマイクロソフトに転職した日本人エンジニアが“精神的に限界”だった時に救われた「世界一流の思考」

                                        タイムボックス制を使いこなすコツ 数カ月後、その効果は顕著に表れて、コードベース(ソースコードの集まり)への理解が深まり、仕事をコントロールできている感が格段に高まったのだ。技術力がぐんぐん上がる手応えも感じる。日々忙しくしているが5時には確実に仕事が終わるので、ストレスもあまり溜まらない。 タイムボックス制を始めたのは1年でもっとも忙しい時期である5月だったが、実働時間が減ったのに生産性は落ちるどころか、いきなり上がった感がある。 さらに「データドリブン」を採用し、今どれくらい何に時間を使っているのかを正確に分析してみた。自分は何かの作業をするときに、OneNoteというツールでメモを取る癖があるが、そこにスタートと終了時間を記録するようにした。 自分がなんとなくこれぐらい時間を使ったと「感じる」ことと実際どれだけかかったかは意外に違うものだ。それを振り返って、何にどのくらい時間を配分す

                                          44歳でマイクロソフトに転職した日本人エンジニアが“精神的に限界”だった時に救われた「世界一流の思考」
                                        • Why Elixir Is the Best Language for Building a Bootstrapped, B2B SaaS in 2024 | SleepEasy Website Monitor

                                          Why Elixir Is the Best Language for Building a Bootstrapped, B2B SaaS in 2024 [This article is the companion to my presentation for CodeBEAM America 2024, Elixir is the One-Person Stack for Building a Software Startup. You can download the slides as a PDF or view them in Google Slides.] I’d like to share why I chose Elixir as the programming language (and really, as we’ll discuss, the full stack)

                                            Why Elixir Is the Best Language for Building a Bootstrapped, B2B SaaS in 2024 | SleepEasy Website Monitor
                                          • OpenAIよ。2022年1月より先の未来を見たくないか?【Azure OpenAI × LangChain ハンズオン】

                                            目次 はじめに 今回作成するシステムの概要と前提条件 Azure Bing Search セットアップ Next.jsコーディング 動作確認 お片付け はじめに 2022年1月...。 このワードを聞いてピンときた方は日頃かなり勉強されているつよつよエンジニアに違いありません。 2022年1月というのは、OpenAIのGPT-3.5モデルの学習範囲の果てと言われています。 ということは...2022年1月以降の知識であれば... ファーー!! 2022年1月以降の情報であればマウント取り放題です! ... でも、マウントをとっていても仕方がありません。 私は以前、恩師よりマウントはドライブだけで充分です。という言葉を教えていただいたことを思い出しました。 では、2022年1月以降の情報でも適切に回答できるようにするにはどうすれば良いのか? そんな方々に向けたアンサーの一つをこの記事にまとめ

                                              OpenAIよ。2022年1月より先の未来を見たくないか?【Azure OpenAI × LangChain ハンズオン】
                                            • BingチャットはAzure+Oracle Cloudで動いていた

                                              米Oracleが、米Microsoftの検索エンジン「Bing」が搭載するチャットAI機能「Bingチャット」に、クラウドサービス「Oracle Cloud Infrastructure」(OCI)を提供していると発表した。BingチャットはMicrosoftのクラウドサービス「Microsoft Azure」とOCIを併用する形で動作しているという。 米Oracleは11月7日(現地時間)、米Microsoftが提供する検索エンジン「Bing」が搭載するチャットAI機能「Bingチャット」に、クラウドサービス「Oracle Cloud Infrastructure」(OCI)を提供していると発表した。BingチャットはMicrosoftのクラウドサービス「Microsoft Azure」とOCIを併用する形で動作しているという。 Oracleによれば、MicrosoftはAzureとOC

                                                BingチャットはAzure+Oracle Cloudで動いていた
                                              • Prompt Flowでプロンプト評価の管理を行う | フューチャー技術ブログ

                                                今回はこのような表を自動で得られるようにすることを目標とします。 LLMには、追加学習による精度の改善だけでなく、入力するプロンプトの改善による精度向上の余地があります。 今回は、通常の機械学習の実験管理とは異なり、LLM, プロンプトの2変数のうち、LLMを固定します。仮に精度が向上した場合、それが「LLMを改善したから」なのか「プロンプトを改善したから」なのかが分からなくなってしまうからです。 プロンプトの評価プロンプトの評価に必要なもの以下の4つが全て揃えば大体どんな評価もできます。 最低限*印の項目があればそれなりの評価ができます。 質問文* LLMの回答* 理想の回答 コンテキスト プロンプトの評価指標例プロンプトの評価指標は、原則「プロジェクト・タスクによりけり」です。 ここでは評価指標を定めるための参考として、いくつか事例を集めたので以下にご紹介します。 事例①: Promp

                                                  Prompt Flowでプロンプト評価の管理を行う | フューチャー技術ブログ
                                                • Windowsが再起動不要のアップデートの仕組みを導入へ

                                                  現在、Windowsに提供されるほとんどの更新プログラムは、インストールした後に再起動が必要となる。特に、重要なシステム機能のアップデートでは強制的に再起動が行われるため、これを煩わしく感じるユーザーも多いだろう。Windows Centralが「Microsoft wants to update your Windows 11 PC without forcing you to reboot」で伝えたところによると、Microsoftはこの問題の抜本的な改善に取り組んでおり、再起動せずに更新プログラムをインストールできる仕組みを開発中だという。 メモリーに直接パッチを適用する「ホットパッチ」 再起動せずに更新プログラムをインストールする仕組みは「ホットパッチ(Hot Patching)」と呼ばれている。MicrosoftはすでにAzureプラットフォーム向けの一部のWindows Ser

                                                    Windowsが再起動不要のアップデートの仕組みを導入へ
                                                  • サーバレスはAWSの顧客の7割以上、Google Cloudの顧客の6割以上が利用、Datadogの調査結果

                                                    サーバレスはAWSの顧客の7割以上、Google Cloudの顧客の6割以上が利用、Datadogの調査結果 モニタリングサービスをSaaSとして提供しているDatadogは、同社のサービスを通じてサーバレスを監視している2万以上の顧客のデータを基にしたサーバレスに関する調査結果を発表しました。 ここでは調査結果の主なポイントを見ていきましょう。 AWSの顧客の7割以上がサーバレスを利用 クラウドを利用している顧客のうち、何パーセントがサーバレスを利用しているかについての調査では、AWSの顧客の70%以上、Google Cloudの顧客の60%が1つ以上のサーバーレスソリューションを使用しており、Azureは49%と僅差で続いています。 サーバレスのプラットフォームには、AWS LambdaやGoogle Cloud Functionsなど、クラウド側であらかじめマネージドなランタイムが提

                                                      サーバレスはAWSの顧客の7割以上、Google Cloudの顧客の6割以上が利用、Datadogの調査結果
                                                    • Databricks Container ServiceでTensorRT-LLMを動かしてみた - NTT Communications Engineers' Blog

                                                      本記事ではDatabricksのDatabricks Container Serviceを用いてNVIDIA社の推論ライブラリであるTensorRT-LLMを実行可能なNotebook環境を構築する方法を紹介します。 目次 目次 はじめに Databricks Container Service NVIDIA TensorRT-LLM 解決したいこと TensorRT-LLM Container Imageの作成 Databricks Containers ベースイメージの変更 Pytorch バージョンの変更 TensorRT-LLMのインストール 動作確認 Databricks環境設定 TensorRT-LLMのインポート Llama2 HF-7b-instruct モデルの変換 TensorRT-LLMの呼び出し まとめ 参考文献 はじめに こんにちは、NTTコミュニケーションズの露

                                                        Databricks Container ServiceでTensorRT-LLMを動かしてみた - NTT Communications Engineers' Blog
                                                      • 総括感想『ウルトラマンブレーザー』- 新機軸と販促を両立させた「優等生」が問いかける、“コミュニケーション” の在り方とその可能性 - れんとのオタ活アーカイブ

                                                        2024年1月20日。ウルトラシリーズの最新TV作品『ウルトラマンブレーザー』が最終回を迎えた。 \X\#ウルトラマンブレーザー/X/ // 第25話(終) 「地球を抱くものたち」// 明日あさ9時放送! 月でヴァラロンとの戦いに敗れた ブレーザーとSKaRD。 ドバシに捕えられたエミ。 絶体絶命の中、ヴァラロンが ついに地球に襲来する…! ▼作品情報へhttps://t.co/rvVpnIOABj pic.twitter.com/KKTsEpFRap— ウルトラマンブレーザーTHE MOVIE / ジェネスタ 公式 (@ultraman_series) 2024年1月19日 従来のニュージェネレーションシリーズと大きく異なる雰囲気や『Z』以来の「メイン監督:田口清隆監督」という大看板によって、放送前から絶大な盛り上がりを見せていた『ブレーザー』。 事実、本作は数々の意欲的な取り組みは勿論

                                                          総括感想『ウルトラマンブレーザー』- 新機軸と販促を両立させた「優等生」が問いかける、“コミュニケーション” の在り方とその可能性 - れんとのオタ活アーカイブ
                                                        • Redisがライセンスを変更してオープンソースソフトウェアではなくなるもののエンドユーザーには影響なし

                                                          データベース管理システム「Redis」の開発を主導するRedis Ltd.が2024年3月20日にRedis 7.4以降のライセンスを従来の三条項BSDライセンス(BSD-3)からRedis Source Available License 2.0(RSALv2)およびServer Side Public License(SSPLv1)のデュアルライセンスに変更すると発表しました。 Redis Adopts Dual Source-Available Licensing | Redis https://redis.com/blog/redis-adopts-dual-source-available-licensing/ Change license from BSD-3 to dual RSALv2+SSPLv1 by K-Jo · Pull Request #13157 · redis

                                                            Redisがライセンスを変更してオープンソースソフトウェアではなくなるもののエンドユーザーには影響なし
                                                          • Introducing Meta Llama 3: The most capable openly available LLM to date

                                                            Today, we’re introducing Meta Llama 3, the next generation of our state-of-the-art open source large language model.Llama 3 models will soon be available on AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM, and Snowflake, and with support from hardware platforms offered by AMD, AWS, Dell, Intel, NVIDIA, and Qualcomm.We’re dedicated to developing Llama 3

                                                              Introducing Meta Llama 3: The most capable openly available LLM to date
                                                            • Introducing GitHub Models: A new generation of AI engineers building on GitHub

                                                              We believe every developer can be an AI engineer with the right tools and training. From playground to coding with the model in Codespaces to production deployment via Azure, GitHub Models shows you how simple it can be. Sign up for the limited public beta HERE. From the early days of the home computer, the dominant mode of creation for developers has long been building, customizing, and deploying

                                                                Introducing GitHub Models: A new generation of AI engineers building on GitHub
                                                              • マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023

                                                                マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023 マイクロソフトは現在開催中のイベント「Microsoft Ignite 2023」で、オープンソースの大規模言語モデルを、Microsoft Azure上でマネージドサービスとしてすぐに試せる「Models as a Service」を提供すると発表しました。 これにより開発者が簡単に大規模言語モデルのサービスを簡単かつ迅速に試し、アプリケーションの開発に利用できるようになります。 当初はMetaが公開している大規模言語モデルLlma 2をサポートし、今後MistralやJaisなど対応する大規模言語モデルの種類を拡大していく予定です。 カタログから選択すると数秒後には利用可能、従量課金制 Mod

                                                                  マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023
                                                                • OpenAI、AIインフラをAzureだけでなくOracle Cloudへも拡大へ

                                                                  オラクル、マイクロソフト、OpenAIの3社は提携を発表し、OpenAIにさらなるAIインフラのキャパシティを提供するために、OpenAIが利用するプラットフォームをMicrosoft Azureに加えてOracle Cloudへ拡大することを発表しました。 もともとOpenAIとマイクロソフトは複数年にわたる長期的なパートナーシップにより、Microsoft AzureがOpenAIの独占的なクラウドプロバイダーとして、研究や製品、APIによるサービスなど、OpenAIのすべてのワークロードを支えることを発表しています。 今回の3社の提携は、このOpenAIを支えるクラウドプロバイダーにOracle Cloudが加わることを意味します。 OpenAIのサム・アルトマンCEOはこの提携に当たり、次のようにコメントしています。 We are delighted to be working w

                                                                    OpenAI、AIインフラをAzureだけでなくOracle Cloudへも拡大へ
                                                                  • Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表 AWSやAzureの高速ストレージより100倍高速と説明

                                                                    この記事は新野淳一氏のブログ「Publickey」に掲載された「Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表。競合となるAWSやAzureの高速ストレージより100倍高速と説明。Google Cloud Next '24」(2024年4月11日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 米Google Cloudは日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、AIの推論やサービングのワークロード向けに最適化されたブロック ストレージ サービス「Hyperdisk ML」を発表しました。 説明によると、Hyperdisk MLは一般的なストレージサービスと比較して、AIモデルの読み込み時間を最大12倍高速化し、最大で2500インスタンスが同じボリュームにアクセスでき、

                                                                      Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表 AWSやAzureの高速ストレージより100倍高速と説明
                                                                    • Microsoft、AI採用のサイバーセキュリティの取り組み「Secure Future Initiative」立ち上げ

                                                                      Microsoft、AI採用のサイバーセキュリティの取り組み「Secure Future Initiative」立ち上げ Microsoftは次世代サイバーセキュリティの新たな取り組み「Secure Future Initiative」(SFI)を立ち上げたと発表した。「CodeQL」によるセキュリティチェックの自動化などを取り入れていく。 米Microsoftは11月2日(現地時間)、次世代サイバーセキュリティの新たな取り組み「Secure Future Initiative」(SFI)を立ち上げたと発表した。AIベースの防御、ソフトウェアエンジニアリングの強化、国際規範の適用の提唱を3つの柱とする。 同社ではここ数年、サイバーセキュリティ関連の問題がいくつか発生している。2021年1月にはSolarWinds悪用攻撃を受けたと発表し、同年3月には「Exchange Server」の脆弱

                                                                        Microsoft、AI採用のサイバーセキュリティの取り組み「Secure Future Initiative」立ち上げ
                                                                      • 経営層自ら“社内ChatGPT”を全社展開 日清食品CIOが語るAI促進の極意

                                                                        5月22~24日に開催した展示会「NexTech Week 2024【春】」で、日清食品ホールディングスが生成AIの活用事例を紹介した。「もう間違えない!生成AI導入のポイント」と題して、同社の執行役員CIOでグループ情報責任者を務める成田敏博さんらが登壇。2023年4月に導入した“社内ChatGPT”の活用方法や、そもそもどのようにして社内に展開したかなどを話した。 生成AI導入の成否を分けるのは「経営層の理解」か 日清食品が社内ChatGPTを導入したのは23年4月25日。米Microsoftが提供する、API経由でGPTシリーズにアクセスできる「Azure OpenAI Service」を使い、社内用のAIチャットbot「NISSIN AI-chat powered by GPT-4 Turbo」を自社開発した。24年5月24日現在、事務職など、ホワイトカラー業務を手掛ける従業員約4

                                                                          経営層自ら“社内ChatGPT”を全社展開 日清食品CIOが語るAI促進の極意
                                                                        • 【AOAI】RAGパイプラインの構築から評価フェーズまでの実装を一挙解説!【Ragas】 | SIOS Tech. Lab

                                                                          こんにちは、サイオステクノロジーの佐藤 陽です。 今回もRAGの構築に関する記事を書いていきます! これまでも何本かRAGに関して書いてきましたが、 今回はそれらの集大成として、PDFを外部情報とするRAGを実装し、Ragasで評価するところまで、ソースコードと合わせて一挙ご紹介していこうと思います。 これを読めば、今日からRAGが構築ができるような記事になってます! ぜひ最後までご覧ください! はじめに 今回一番伝えたいことは、「評価を回しながらRAGの開発を進めてください!!」 という事です。 RAGというと、どうしても回答を出す部分に注目が行きがちですが、評価の方も非常に大切です。 生成AIを利用していることもあり、RAGの回答内容は不安定であるため、人間が評価するのが難しいことがよく言われています。 更にRAGを構築する要素の設計は多岐にわたります。 プロンプト変更 チャンキング戦

                                                                            【AOAI】RAGパイプラインの構築から評価フェーズまでの実装を一挙解説!【Ragas】 | SIOS Tech. Lab
                                                                          • クラウドインフラのシェア、生成AIブームによりマイクロソフトが上昇率でGoogleを抜いてトップに、AWSを猛追中。2023年第3四半期。Canalysの調査

                                                                            クラウドインフラのシェア、生成AIブームによりマイクロソフトが上昇率でGoogleを抜いてトップに、AWSを猛追中。2023年第3四半期。Canalysの調査 調査会社のCanalysは、2023年第3四半期のグローバルにおけるクラウドインフラのシェアを発表しました。 クラウドインフラとは、IaaS、PaaS、ホステッドプライベートクラウドを合わせたものを指します。 同時期のクラウドインフラのシェアの調査結果として、すでに先月(2023年11月)にSynergy Researchの調査結果が報告されており、そこではマイクロソフトが3カ月で2ポイントのシェア上昇を見せていたことが示されました。 参考:グローバルのクラウドインフラ市場シェア、この3カ月でマイクロソフトのシェアが2%増加。2023年第3四半期、Synergy Researchの調査結果。 Canalysの調査結果でも同様に、マイ

                                                                              クラウドインフラのシェア、生成AIブームによりマイクロソフトが上昇率でGoogleを抜いてトップに、AWSを猛追中。2023年第3四半期。Canalysの調査
                                                                            • 3大クラウド×日米両リージョンでハニーポットを動かしてみる【後編】 | gihyo.jp

                                                                              前編の振りかえり 前編ではOSSのハニーポットであるT-PotをAWS、Azure、Google Cloudの3大クラウドサービスの日米両リージョンにデプロイしました。後編となる本記事ではT-Potを24時間程動かした結果をご紹介していきます。 T-Potの実行結果について 各クラウドサービスの日米両リージョンで収集したデータをT-Potのダッシュボードに表示した様子のスクリーンショットを以下に掲載します。なお表示期間はデータ収集を行った2024年6月12日17時から翌日の2024年6月13日17時までの24時間に揃えています。 24時間という比較的短時間かつ各リージョンで1インスタンスのみでしかデータ収集していないため統計学的な考察というよりは一参考情報としてお読み頂けますと幸いです。 図1 AWS東京リージョン(ap-northeast-1) 図2 AWS米国東部リージョン(us-ea

                                                                                3大クラウド×日米両リージョンでハニーポットを動かしてみる【後編】 | gihyo.jp
                                                                              • Write OpenAPI with TypeSpec

                                                                                I've spent the last few years at Microsoft working on an API definition language called TypeSpec. It's essentially a super flexible protocol-agnostic DSL for describing API shapes. You can try it in your browser at the TypeSpec playground. Many things about it are exciting, but I want to talk about one thing in particular: why TypeSpec is the best way to write OpenAPI. OpenAPI: the good and the no

                                                                                • Azureのプロダクト名のtypoを検知するtextlintのルールをnpmで公開してみた - Alternative Architecture DOJO

                                                                                  こんにちは、クラウドソリューション部の花岡です。 この記事はオルターブースアドベントカレンダー2023の23日目の記事です。 adventar.org だんだんとクリスマス 🎄 が近づいてきました! 街はにぎやかお祭り騒ぎでチキンライスが食べたくなる時期です はじめに 今回は文章校正ツールである(textlint)https://textlint.github.io/を使ってAzureのプロダクト名のtypoを検知するルールを作成し公開しました。 AWSのサービス名のtypoを検知できるルールを作ったクラスメソッドさんのブログを見て、Azure版もあれば便利だなと思いOSSで作ってみました。 実装も大いに参考にしています。 dev.classmethod.jp NPMパッケージで公開してます。 www.npmjs.com ソースはこちら、MITライセンスで公開してます。 github.c

                                                                                    Azureのプロダクト名のtypoを検知するtextlintのルールをnpmで公開してみた - Alternative Architecture DOJO