タグ

ブックマーク / www.sbbit.jp (3)

  • 富士通「生成AI戦略」を5分で完全解説、他の大手SIer・コンサルの戦略と何が違うか?

    【一覧まとめ】各社のLLM展開の最新動向とは? 現在、生成AIの産業・ビジネス用途の活用が加速している。そうした中で、生成AIサービスを利用するというフェーズから、これまで進めてきたDXの取り組みや、既存の業務オペレーションに生成AIを組み込むといった活用が重要になってきている。 そうした流れの中で、生成AIと密接に関わる「大規模言語モデル(LLM)」の活用の在り方も変化してきている。具体的には、OpenAI社が展開するGPTなど、特定のLLMを活用するような在り方から、次第に業務特性や用途に応じて最適なLLMを使い分ける形式へと変化してきているのだ。 たとえば、富士通NTT データ、NEC、IBMなど、業務特化の個別型LLMなどを展開する企業においても、自社独自開発のLLMと、汎用型LLM、オープンソースのLLMなど、複数のLLMを用途に応じて使い分ける「マネージドサービス型サービス」

    富士通「生成AI戦略」を5分で完全解説、他の大手SIer・コンサルの戦略と何が違うか?
  • なぜ内製化は「しくじりがち」なのか、成功に必須「5つの極意」をガートナー解説

    システム開発の内製化に対する企業の関心が、ここにきて高まりを見せている。背景にあるのは言うまでもなくDXの急速な広がりだ。従来、多くの企業はシステムを外注によって整備し、そのために少なからぬコストと時間を投じてきた。それを内製に切り替えることで、多様なシステムの、SIerとの各種やり取りを省いた、より迅速かつ低コストでの整備が可能となる。 ガートナーが2022年4月に実施した調査でも、企業の内製化の推進理由の上位2つについて、「開発コストの削減(55.2%)」と「開発、実装、保守対応の迅速化(49.7%)」が占めている。 しかし、こうした実情について「内製への切り替えは簡単にはいきません」と注意を促すのはガートナー シニア ディレクター,アナリストの片山 治利氏である。

    なぜ内製化は「しくじりがち」なのか、成功に必須「5つの極意」をガートナー解説
  • 【文系でもわかる】ChatGPTのキモ「Transformer」「Attention」のしくみ

    第1回は、さまざまなタスクをこなす万能型ジェネレーティブAIツール「ChatGPT」の性能の鍵を握る「トークン長(GPTが文脈を意識できる過去の単語数)」やGPTの歴史的経緯について解説しました。第2回はGPTを支える自然言語処理 の分野で使用される深層学習モデル「Transformer」とその根幹となる「Attention機構(そのタスクにおいてどの単語の重要度が高く、注目すべきか決める仕組み)」についてです。TransformerとAttention機構の仕組みを定性的に把握し、それを踏まえてGPTの能力と可能性について考察したいと思います。テクノロジー領域に明るくない人でもわかる記事を目指します。

    【文系でもわかる】ChatGPTのキモ「Transformer」「Attention」のしくみ
  • 1