並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 717件

新着順 人気順

modelの検索結果281 - 320 件 / 717件

  • OpenAI API ドキュメント 日本語訳|#1 GET STARTED 前編|ゑぐみかるちゃあ

    OpenAI API ドキュメントの日本語訳をこちらでまとめます。文字量の多いドキュメントなので、セクションごとに記事を分割しています。 今回は「GET STARTED 」のセクションからIntroduction と Quickstart を抜粋した前編です。 基本 DeepLで翻訳して、気になるところだけ書き換えています(ほぼ気になるところがないのが、DeepLのすごいところ)。原文との突き合わせができるようにはじめに原文を入れてますので、間違いなど見つけられましたら、ぜひご指摘ください。ご指摘箇所は随時反映させていただきます。 原文のリンクが有効になってますので、それぞれ必要な場合は原文リンクの方を参照ください。 Introduction|はじめに Overview|概要The OpenAI API can be applied to virtually any task that i

      OpenAI API ドキュメント 日本語訳|#1 GET STARTED 前編|ゑぐみかるちゃあ
    • Stable Diffusionでmorphing - すぎゃーんメモ

      #stablediffusion 完全に理解した pic.twitter.com/IR5yjnL07Y— すぎゃーん💯 (@sugyan) August 31, 2022 ということで少し触って遊んでみたのでメモ。 Stable Diffusion をザックリ理解 先月公開された Stable Diffusion。 stability.ai 高精度で美しい画像を出力できる高性能なモデルながら、Google Colab などでも手軽に動かせるし、 Apple silicon でもそれなりに動かせる、というのが魅力だ。 中身については 以下の記事の "How does Stable Diffusion work?" 以降のところが分かりやすい。 huggingface.co 図をそのまま引用させていただくと という仕組みになっていて、受け取る入力は "User Prompt" と "Late

        Stable Diffusionでmorphing - すぎゃーんメモ
      • 技適対応の「Raspberry Pi 4 Model B 4GB版」が発売

          技適対応の「Raspberry Pi 4 Model B 4GB版」が発売
        • 仕様書とテストを用いた「AI駆動開発」

          数年前にAIを離れ現在はフロントエンドをやっているのですが、半年くらい前に思い切り引き戻されました。画像生成AIにおけるmidjourneyとstable diffusionの登場です。noteのCTO深津さんが記事を出したと思ったのも束の間、急速に進化を果たしました。 絵柄の固定・ポーズの指定・マシンスペックなど、日々さまざまな問題を解決しながら新たな技を身につけています。 しかし、同等かそれ以上に話題になっているのは大規模言語モデル(Large Language Model)かもしれません。ChatGPTが話題になった思ったら、BingやPerplexity,You.comなど大規模言語モデルを交えたサービスが次々と登場しました。 活用方法もたくさん見つけられており、私は特に以下の二つの記事が好きです。 「感情回路」の記事に入力(プロンプト)でここまで変わるのかと感動したことを覚えてい

            仕様書とテストを用いた「AI駆動開発」
          • Prisma: Node.js & TypeScript向けの完璧なORM

            本記事は、@nikolasburk氏による「The Complete ORM for Node.js & TypeScript」(2021年4月21日公開)の日本語翻訳を、著者の許可を得て掲載しているものです。今後Prismaの公式ブログの日本語翻訳の許可をいただいたので、このアカウントで継続して翻訳していきます。※画像やリンクは公式のBlogからお借りしています。 Prismaは、Node.jsとTypeScriptのための次世代ORMです。2年以上の開発期間を経て、すべてのPrismaツールが製品化の準備が整ったことをお伝えできることに興奮しています! コンテンツ オブジェクト-リレーショナルマッピングの新しいパラダイム あらゆるスタックに対応するPrisma ミッションクリティカルなアプリケーションでの運用に対応 オープンソースを超えて お手伝いできることは? Prismaを始めよう

              Prisma: Node.js & TypeScript向けの完璧なORM
            • ChatGPTにブログ全エントリを学習させて「おしえてきしださん」を作る - きしだのHatena

              最近「100万件の文章をChatGPTに学習させて応答チャットを作りました」みたいなニュースがあって、違和感があります。 ということで「ChatGPTにブログ全エントリを学習させて「おしえてきしださん」を作る」としたときに、どんな仕組みになっていて、なぜ「ChatGPTに文章を学習させて」ということに違和感があるか見てみます。 とりあえずこんな感じで、質問に対して答えれてるっぽいチャットができました。 まず、Embedding APIを使って、全エントリのベクトルを得てMongoDBに突っ込んでおきます。 このエントリでやってるので、そのまま使います。 GPTのEmbeddingを利用してブログの投稿に対する近いものを探し出す - きしだのHatena 質問が入力されたら、質問文も同じようにEmbeddingでベクトルをとってきます。 var req = EmbeddingRequest.

                ChatGPTにブログ全エントリを学習させて「おしえてきしださん」を作る - きしだのHatena
              • ChatGPTはどこまで雑な仕様でコードを書けるのかLINE Botを作らせてみた(GPT-4) - Qiita

                最近すっかりChatGPT(GPT-4)にハマっています。 GPT-4にバージョンアップして、日本語でのやり取りがとても自然になったのにも正直驚いていますが、それとプログラマー的にはもっと衝撃なのが「かなり雑な仕様でもちゃんと動くコードを書いてくれる」こと。 ということで、今回はChatGPTがどこまで雑な仕様でコードを書けるのか試してみることにしました。 題材としては、この間作ったAIレシピbotのGAS版を作らせてみることにしました。 実験の手順としては、まずはカッチリ仕様を提示するバージョンで試してみて、徐々に提示する仕様を雑にしてみようかと思います。ChatGPTは文脈を記憶する特性があるので、毎回チャットをリセットして記憶を消去しています。使用したのはWeb版のChatGPT Pro(GPT-4)です。 結論を先に書くと、かなりヤバい結果です。めちゃくちゃ雑なほぼ丸投げの指示でも

                  ChatGPTはどこまで雑な仕様でコードを書けるのかLINE Botを作らせてみた(GPT-4) - Qiita
                • 画像生成AIに“照明”革命 ControlNet開発者が作った「IC-Light」

                  画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ

                    画像生成AIに“照明”革命 ControlNet開発者が作った「IC-Light」
                  • 画像生成AI「Stable Diffusion」にたった数枚のイラストから絵柄や画風を追加学習できる「Dream Booth」が簡単に使える「Dreambooth Gui」レビュー

                    画像生成AI「Stable Diffusion」はあらかじめ学習したデータセットを基にして、プロンプトあるいは呪文と呼ばれる入力文字列に沿った画像を自動で生成します。そのStable DiffusionのAIモデルに画像を追加で学習させる「Dream Booth」という手法があるのですが、コマンド入力による操作が必要で、演算処理に何十GBものVRAMを必要としました。しかし、Dream BoothをGUIで、しかもNVIDIA製グラボであれば10GB程度の環境でも使える「Dreambooth Gui」がリリースされたので、実際に使ってみました。 GitHub - smy20011/dreambooth-gui https://github.com/smy20011/dreambooth-gui Dreambooth Guiを使うためにはDockerとWSL2のインストールが必要となります。

                      画像生成AI「Stable Diffusion」にたった数枚のイラストから絵柄や画風を追加学習できる「Dream Booth」が簡単に使える「Dreambooth Gui」レビュー
                    • 【仕様の読み方】HTMLの要素をどうやって学ぶか

                      <search>要素がHTML Standardに追加されました。私も初めて出会う要素になるわけですが、とても良い機会なので、私が要素を調べる際にどうやって調べて学んでいるのかを共有したいと思います。これは新しい要素に限らず、既存の要素の調査に応用できると思います。また、初学者はもちろん、マークアップを生業としている方にも参考になると思います。 新要素追加の経緯を調べる まずはHTML StandardのGitHubのPRからスタートするとよいでしょう。議論や更新はGitHubで行われています。たとえば、今回の<search>はAdd the <search> element #7320というPRによって更新されました。 そもそも更新自体のキャッチアップ方法はクローズされたPRを更新順にして確認してもいいですし、更新のみをツイートしている@htmlstandardのTLを確認してもいいと思

                        【仕様の読み方】HTMLの要素をどうやって学ぶか
                      • Google 公式ウェブ開発者向けリソースのご紹介

                        .app 1 .dev 1 #11WeeksOfAndroid 13 #11WeeksOfAndroid Android TV 1 #Android11 3 #DevFest16 1 #DevFest17 1 #DevFest18 1 #DevFest19 1 #DevFest20 1 #DevFest21 1 #DevFest22 1 #DevFest23 1 #hack4jp 3 11 weeks of Android 2 A MESSAGE FROM OUR CEO 1 A/B Testing 1 A4A 4 Accelerator 6 Accessibility 1 accuracy 1 Actions on Google 16 Activation Atlas 1 address validation API 1 Addy Osmani 1 ADK 2 AdMob 32 Ads

                          Google 公式ウェブ開発者向けリソースのご紹介
                        • 使われなかった制作費100万相当のVTuberモデルが無料配布

                          使われなかった制作費100万相当のVTuberモデルが無料配布 イラストレーターの目 浮津さんが、VTuber(バーチャルユーチューバー)の2Dモデル「星野ニア」を無料配布したことが話題となっています。 今回公開された「星野ニア」は、目 浮津さんがプロデュース予定だったものの、活用されることがなかったlive2Dモデル。作業量、稿料込みで総額100万円以上で、さらに3Dモデルも制作途中であったことが明かされています。 https://t.co/D4sL0wjbU3 こちらにて私がプロデユース予定で1週間で捨てられたVtuberが無料ダウンロードできます。 内容物のご覧になったら私のキャラの愛がご理解いただけるかと思います。 ※イラスト、live2D立ち絵、3D全部入ってます。 — 目 浮津 (@syannhaineko) September 1, 2020 2DモデルをFantiaで公開後

                            使われなかった制作費100万相当のVTuberモデルが無料配布
                          • ChatGPTを探す旅に出させていただきます | DevelopersIO

                            文書の数が多い場合、単語の種類(ボキャブラリ)も多くなり単語の次元が大幅に増えていきます。 一方、一つの文書に含まれる単語の数には限りがあるため、これは全体として疎行列になります。 また、単語が各次元として扱われますが、文書ごとの出現順序など、単語間での関連性を示す情報は抜け落ちたものとなります。 それに対して低次元(通常数百次元程度)の密な行列で単語の意味を定義する方法があります。 これは、「分散表現」や「埋め込み表現」と言われるものになっております。 この表現を獲得するため手法は様々なものがありますが、ここではWord2Vecを紹介します。 元論文 : Efficient Estimation of Word Representations in Vector Space 具体的な実装についての解説 : word2vec Parameter Learning Explained Wor

                              ChatGPTを探す旅に出させていただきます | DevelopersIO
                            • 日本初の挑戦〜食べログによるChatGPTプラグイン開発の舞台裏 - Tabelog Tech Blog

                              はじめに 食べログのメディア領域でサービス開発のエンジニアリングマネージャーをしている関戸です。 2023年5月8日のプレスリリースの通り、食べログの新たな取り組みとして2023年5月6日にChatGPTプラグインの提供を開始しました。さまざまなメディアで日本初の試みとして取り上げられています。 ChatGPTプラグイン提供の前提として、プラグイン開発をするためには、(当時は)ウェイトリストに登録し、開発者として招待される必要がありました。招待が届いたアカウントでは、プラグインの動作確認や開発ができるようになります。ウェイトリストに登録後、いつ招待が届くか分からない状況でした。 食べログではアカウントに招待が届いた当日に動作確認して、公開申請を提出しました。 OpenAI社によるChatGPTプラグインの発表後、どこよりもいち早くプラグインを提供することを目指して、必要な調整を事前に進めて

                                日本初の挑戦〜食べログによるChatGPTプラグイン開発の舞台裏 - Tabelog Tech Blog
                              • 早稲田大学の学費に関する考え方について Waseda University’s Policy on Tuition

                                早稲田大学の学費に関する考え方について 2020年5月5日 更新2020年5月15日 早稲田大学の学生の皆さん、並びに保護者の皆様へ *English version follows Japanese 今般の新型コロナウイルス感染症拡大は、日本のみならず、世界中の人々に恐怖心を抱かせると共に、経済的苦痛を与えています。この度、ご本人もしくはご家族が感染された方、なくなられた方もいらっしゃるかと存じます。また、経済的に打撃を受けていらっしゃる方もいらっしゃると存じます。そのような方たちには心からお見舞い、お悔やみを申し上げます。 早稲田大学は、5月11日(月)からオンラインによる授業を開始し、2020年度春学期を8月2日まで行い、通常どおり単位を付与することにしています。一方、早稲田大学の各キャンパスは、感染防止のために、立入禁止を継続しています。図書館・体育館などすべての施設は、利用できな

                                  早稲田大学の学費に関する考え方について Waseda University’s Policy on Tuition
                                • Rubyの並列並行処理のこれまでとこれから - クックパッド開発者ブログ

                                  技術部の笹田です。今日で退職するので、バタバタと返却などの準備をしています。 本記事では、Rubyの並行並列処理の改善についての私の取り組みについて、おもに RubyKaigi 2022 と 2023 で発表した内容をもとにご紹介します。 並行と並列はよく似た言葉ですが、本記事では次のような意味で使います。 並行処理(concurrent processing)は、「複数の独立した実行単位が、待っていればいつか終わる(もしくは、処理が進む)」という論理的な概念で、古典的にはタイムシェアリングシステムなどが挙げられます。 並列処理(parallel processing)は、「複数の独立した実行単位のうちのいくつかが、あるタイミングで同時に動いている」という物理的な概念で、古典的には複数のCPU上で同時に実行させる、というものです。最近では、1つのCPU上で複数コアが同時に動いている、という

                                    Rubyの並列並行処理のこれまでとこれから - クックパッド開発者ブログ
                                  • ついにBitNet Llama8Bが登場! CPUのみで爆速推論するLLM,BitNet.cpp|shi3z

                                    科学の世界では、それまでの常識が覆ることを俗に「パラダイムシフト」と呼ぶ。 しかし、もしもAIの世界にパラダイムシフトという言葉があるとしたら、今週の人類は一体何度のパラダイムシフトを経験しただろうか。 そのトドメの一撃とも言えるのが、BitNetのLlama8B版だ。 Lllama-8B構造で学習された最初のBitNetであり、全てを変えてしまうゲームチェンジャーでもある。CPUのみで秒間5-20トークンを出力する。超強力なLLM推論エンジンの出現だ。 BitNetとは、そもそも1.58ビットに相当する情報量で、本来は4ビット以上必要な大規模言語モデルの計算を劇的に高速化する技術である。 LLMの推論には通常は巨大な浮動小数点数(8ビットから16ビット)の、大量の乗算(掛け算)が必要なため、GPUなどの特殊な半導体を必要としていた。特にNVIDIAのGPUがこの目的にマッチしていたので今

                                      ついにBitNet Llama8Bが登場! CPUのみで爆速推論するLLM,BitNet.cpp|shi3z
                                    • ローカルPCでセルフホストできてGithub Copilotのように使えるコーディング補助AI「tabby」、Dockerイメージありなので早速使ってみたレビュー

                                      Github Copilotのコーディングアシスト性能は目を見張るものがありますが、データを社外に持ち出せないなどの都合で泣く泣く使用を諦めている人も多いはず。そうした状況のなか、ローカルのPCでセルフホスト可能なコーディングアシストツール「tabby」が登場しました。 GitHub - TabbyML/tabby: Self-hosted AI coding assistant https://github.com/TabbyML/tabby tabbyはDockerから簡単に起動することが可能とのこと。Dockerのインストール方法については下記の記事の前半に詳しく記載してあります。 画像生成AI「Stable Diffusion」にたった数枚のイラストから絵柄や画風を追加学習できる「Dream Booth」が簡単に使える「Dreambooth Gui」レビュー - GIGAZINE

                                        ローカルPCでセルフホストできてGithub Copilotのように使えるコーディング補助AI「tabby」、Dockerイメージありなので早速使ってみたレビュー
                                      • 機械学習で逆ストリートビューを作り、写真から港区らしさを判定する - エムスリーテックブログ

                                        テストデータでの予測結果 先日新橋を散歩していたときの会話。 妻 "こういう路地って新橋らしさあるよねー" 私 "本当です?どういうところで当てられるの?" 妻 "歩道の雰囲気?" 私 "うーん" ということで、MLエンジニアたるもの、そんなことが本当にできるのか機械学習で検証してみましょう。 写真から撮影場所を当てる 作るもの 港区らしさとは 柵でわかる中央区・千代田区・江東区 最もXX区に間違えそうなYY区の写真とは 技術的な話 参考論文: PlaNet Google Streetview API と Geolonia API 学習について 他の地域の分類機を作る 自分の撮った写真の地域を当てる Limitation まとめ We are hiring! おまけ: モデルと勝負! 写真から撮影場所を当てる こんにちは、AI・機械学習チームリーダーの大垣(id:Hi_king)です。 こ

                                          機械学習で逆ストリートビューを作り、写真から港区らしさを判定する - エムスリーテックブログ
                                        • 令和にふりかえる C10K 問題

                                          C10K 問題 (the C10K problem) は1999年に Dan Kegel が発表した文章、ならびにそこで提示された「問題」です。文章はその後も2000年代前半に何度か更新されているのですが、さすがに令和に読み返すと、当初の問題意識がわかりにくいところがあります。 2000年からの10年は、 ソフトウェア面では、select(2), poll(2) にかわる新しいシステムコールの実装と、それを使ったアプリケーションの普及 ハードウェア面では、x86 アーキテクチャの64ビット移行、仮想化命令の追加と、マルチコア化 さらにそこにクラウドも登場する、面白い時代でした。ここでは、それらの出来事を中心に、さらに、当時の雰囲気をつたえるような日本国内のブログやインタビュー記事をまとめることで、C10K 問題が、さまざまな側面から解決されていく流れを説明したいと思います。 書き足したいと

                                          • NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)

                                            せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。 だから流出したモデルを使ってローカルでNAIの環境を構築する。 ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。 もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。 もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。 英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。 https://rentry.org/nai-speedrun 推奨環境VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。 GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。 IntelのオンボードGPUで

                                              NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)
                                            • GitHub Actionsで実現する高度なイシュー管理: 安野たかひろ都知事選マニフェストリポジトリの自動化ワークフロー解説 - Sun wood AI labs.2

                                              ワークフローの概要 このGitHub Actionsワークフローは以下の主要な機能を持っています: 新しいイシューが開かれたときに自動的に起動 イシューの内容を分析し、不適切なコンテンツをチェック 既存のイシューとの重複を検出 必要に応じてラベルを付与 ワークフローの詳細解説 トリガーとパーミッション設定 name: Issue Review on: issues: types: [opened] permissions: issues: write contents: read このセクションでは、ワークフローの名前を定義し、トリガー条件とパーミッションを設定しています。 on.issues.types: [opened]: 新しいイシューが開かれたときにワークフローが起動します。 permissions: ワークフローがイシューの読み書きと、リポジトリコンテンツの読み取りを行うための権

                                                GitHub Actionsで実現する高度なイシュー管理: 安野たかひろ都知事選マニフェストリポジトリの自動化ワークフロー解説 - Sun wood AI labs.2
                                              • 【2022年】AWS全サービスまとめ | DevelopersIO

                                                こんにちは。サービスグループの武田です。このエントリは、2018年から公開しているAWS全サービスまとめの2022年版です。 こんにちは。サービスグループの武田です。 このエントリは、2018年から毎年公開している AWS全サービスまとめの2022年版 です。昨年までのものは次のリンクからたどってください。 AWSにはたくさんのサービスがありますが、「結局このサービスってなんなの?」という疑問を自分なりに理解するためにまとめました。 今回もマネジメントコンソールを開き、「サービス」の一覧をもとに一覧化しました。そのため、プレビュー版など一覧に載っていないサービスは含まれていません。また2021年にまとめたもののアップデート版ということで、新しくカテゴリに追加されたサービスには[New]、文章を更新したものには[Update]を付けました。ちなみにサービス数は 223個 です。 まとめるにあ

                                                  【2022年】AWS全サービスまとめ | DevelopersIO
                                                • 1. いろいろなモデル計算 (2020/4/10)

                                                  1. いろいろなモデル計算 (2020/4/10) コロナウイルス(SARS-CoV-2) の感染がどのように広がるかについては色々な ことがいわれています。が、その背景にあるモデルはほぼ同じで、 Kermack and McKendrick の SIR モデル A contribution to the mathematical theory of epidemics, 1927, Proceedings of the Royal Society A です。これについての牧野による解説は 岩波「科学」5月号掲載予定の原稿に書いた通りなので、まずはそちら を御覧いただければと思います。 基本的にはこのモデルを使っているにもかかわらず、どう対策をする必要があ るか、については色々な人が色々なことをいっていて、大きな幅があります。 ここでは、そのうち3つを取り上げて、どのような違いが生じている

                                                  • 蚊を自動検知してレーザーで滅却するRaspberry PIマシンが誕生

                                                    by Andrew "FastLizard4" Adams 蚊はマラリア・デング熱・ジカ熱などの病気を媒介する衛生害虫で、毎年全世界で殺人事件による死者の2倍に相当する70万人以上を死に至らしめています。そんな蚊をマシンビジョンと機械学習で検出し、レーザー照射で焼き殺すというRaspberry PIマシンが開発されました。 Raspberry PI for Kill Mosquitoes by Laser[v1] | Preprints https://www.preprints.org/manuscript/202101.0412/v1 蚊を自動検出して焼き殺すマシンを生み出したのは、ロシア・南ウラル国立大学のIldar Rakhmatulin氏。同氏は蚊が毎年世界中で多くの死者を出している状況を打破するためには画期的な発明が必要だとして、「ディープラーニングによって蚊を見分けてレーザー

                                                      蚊を自動検知してレーザーで滅却するRaspberry PIマシンが誕生
                                                    • 2024年の画像生成AI事情のまとめと今後の考察と駆け出しクリエイターへのアドバイス|よー清水

                                                      どうも、よー清水です。 新年明けましておめでとうございます。本年もどうぞよろしくお願いします。 2024年になりましたので、生成AIを取り巻く状況と今後についてまた語っていきたいと思います。 2023年の3月に書いた記事はこちら↓ 以前の記事でも冒頭に書きましたが、僕の画像生成AIに対するスタンスはほぼ変わりません。 僕は画像生成AIについては「権利者に許諾なしで作品を使う」という1点が気に入りません。AIや技術の進歩は歓迎しますが、著作権など既存の権利を蔑ろにする進歩はおかしいと思っています。 AIの学習に使用するのはよいですが、それは事前に学習に使用することに同意した人だけに限るべきです。 現状でも本やWeb掲載など、公的または商業利用の場合は事前に編集者やライターさんから連絡をいただき、使用用途を確認の上で許諾を出します。 場合によっては掲載料を提示します。これがAI学習とAIの商用

                                                        2024年の画像生成AI事情のまとめと今後の考察と駆け出しクリエイターへのアドバイス|よー清水
                                                      • そのLambda、本当に必要ですか…?Step Functionsのすゝめ

                                                        本記事はANGEL Dojo 2024参加者によるアドベントカレンダー「ANGEL Calendar」の最終日の記事になっております。 他のみなさんが書かれた記事はこちらからご覧ください! ※…ANGEL Dojo 2024に関しましてはAWS JAPAN APNブログをご覧ください。 こんにちは、ひるたんぬです。 今日で2024年度上半期が終わりますね。これを書いてふと思ったのですが、なぜ「YYYY年度」は4月始まりなのでしょうか? 1月から始めてくれていれば色々スッキリするのに…と思い、なぜ4月からになったのか調べてみました。 (前略)当初から4月始まりだったわけでなく、明治政府により会計年度が初めて制度化された明治2年(1869)は、10月始まり。続いて、西暦を採用した明治6年からは、1月始まりになりました。つまり、暦年と年度の始まりが同じ時代があったのです。明治8年からは、地租の納

                                                          そのLambda、本当に必要ですか…?Step Functionsのすゝめ
                                                        • SNSで「10万いいね」レクサスとテスラの衝突安全テストの結果が衝撃すぎた | MOBY [モビー]

                                                          It’s 2022, and Teslas still aren’t stopping for children. pic.twitter.com/GGBh6sAYZS — Taylor Ogan (@TaylorOgan) August 9, 2022 今年実施されたテスラの走行テストの様子がTwitterに投稿され、10万いいねを超えるほどの話題になっています。 動画内ではテスラ Model3が走行中に、車両前方に配置された子どもに見立てた人形を検知して停止することができるかというテストの模様が撮影されています。 映像右側で同時にテスト走行しているレクサス RXがしっかり停止しているのに対し、Model3は人形を豪快に吹き飛ばしてしまいました。 「LiDAR」を搭載していないのが原因? 明るく見通しも良い状況にもかかわらず、Model3が人形の前で停止できなかったのは「子ども人形のクオ

                                                            SNSで「10万いいね」レクサスとテスラの衝突安全テストの結果が衝撃すぎた | MOBY [モビー]
                                                          • サクッと始めるプロンプトエンジニアリング【LangChain / ChatGPT】

                                                            この本では、初心者・入門者の方に向けて、プロンプトエンジニアリングの知識や使い方を体系的にまとめました。 【概要】 ・内容:プロンプトエンジニアとは?、プロンプトエンジニアの必須スキル5選、プロンプトデザイン入門【質問テクニック10選】、LangChainの概要と使い方、LangChainのインストール方法【Python】、LangChainのインストール方法【JavaScript・TypeScript】、LCEL(LangChain Expression Language)の概要と使い方、LangSmithの概要と使い方【LLMOps】、LangServeの概要と使い方【API】、LangGraphの概要と使い方【Multi-Actor】、OpenGPTsの概要と使い方【OSS版のGPTs】、LangChain Evaluations【生成物の評価方法】、LangChain Hub、Op

                                                              サクッと始めるプロンプトエンジニアリング【LangChain / ChatGPT】
                                                            • Heroku’s Next Chapter

                                                              Back in May, I wrote about my enthusiasm to be part of the Heroku story, and I remain just as passionate today about helping write the next chapter. I’ve had many customer meetings over the past few months, and the theme is consistent — you want to know where we are taking Heroku. We want to be clear: The priority going forward is to support customers of all sizes who are betting projects, careers

                                                                Heroku’s Next Chapter
                                                              • 画像から簡単に精巧な3D写真が作成できる論文が公開される、実際に3D写真を生成することも可能

                                                                RGBに「奥行き(Depth)」情報を加えた「RGB-D」画像から、立体的な写真である「3D写真」を生成する方法を研究者チームが提案しています。たった1枚の写真から精巧かつ立体的な3D写真が手軽に生成可能ということで話題になっています。 3D Photography using Context-aware Layered Depth Inpainting https://shihmengli.github.io/3D-Photo-Inpainting/ RGB-D画像から3D写真を生成する方法を開発したのは、国立清華大学の大学院生でありバージニア工科大学にインターンシップ中のMeng-Li Shih氏、バージニア工科大学の大学院生であるShih-Yang Su氏、Facebookリサーチで働くJohannes Kopf氏、バージニア工科大学の助教であるJia-Bin Huang氏ら4人です

                                                                  画像から簡単に精巧な3D写真が作成できる論文が公開される、実際に3D写真を生成することも可能
                                                                • Prisma で本物のDBMSを使って自動テストを書く - mizdra's blog

                                                                  DBMS に依存するロジックのテストを書く時、主に2つの手法があると思います。 Repository 層などを mock する Service 層のテストをする時は、その下位の Repository 層を mock して、DBMS に依存しない形にしてからテストする レイヤードなアプリケーションで適用できる手法 テスト実行時も DBMS を裏で動かして、それを使う 本番と同じスキーマを持つ DBMS に対して、実際に insert したり select してテストする DBMS は docker-compose upとかで事前に立ち上げておく 双方にそれぞれ良さがあって、プロダクトによってどっちでやるか変わってくると思います。 この記事では 2 の手法を Prisma でどうやるかについて紹介します。 前提 実際のテストコードの例 テストヘルパーを作る 別解: ヘルパーを自動生成する je

                                                                    Prisma で本物のDBMSを使って自動テストを書く - mizdra's blog
                                                                  • 依存モジュールが少ないソースコードを読む - スペシャリスト岡野真也に聞くPythonの読み方と使い方 - エンジニアHub|Webエンジニアのキャリアを考える!

                                                                    依存モジュールが少ないソースコードを読む - スペシャリスト岡野真也に聞くPythonの読み方と使い方 現在、多くの支持を集めるPython。10年以上にわたりPythonを使い続ける岡野真也さんに、同言語の学び方、使い方を聞きました。 機械学習やデータサイエンスの隆盛に伴い、Pythonは多くの人に使われる言語になりました。GitHubの「The State of the Octoverse 2019」のレポートによると、GitHubリポジトリのコントリビューターから人気のあったプログラミング言語として、PythonはJavaScriptに次いで2位となっています。 「さまざまな課題を、楽に解決できるのがPythonの魅力」と語るのは、10年以上も前からPython・Djangoフレームワークのヘビーユーザーであり続けてきた岡野真也(おかの・しんや/ @tokibito )さん。彼はいか

                                                                      依存モジュールが少ないソースコードを読む - スペシャリスト岡野真也に聞くPythonの読み方と使い方 - エンジニアHub|Webエンジニアのキャリアを考える!
                                                                    • Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表

                                                                      LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。 [2306.11644] Textbooks Are All You Need https://doi.org/10.48550/arXiv.2306.11644 Microsoft Releases 1.3 Bn Parameter Language Model, Outperforms LLaMa https://analyticsindiama

                                                                        Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表
                                                                      • Go(Echo), Gorm, Mysql, Docker, Swaggerで、クリーンアーキテクチャなAPIサーバーを作ったメモ

                                                                        自分の本業は10年物のMVCプロジェクトなのでClean Architecture忘れがちです。 なので、慣れてるGoでパッとClean Architectureの復習を行ってみました(2年前にPythonでやった事はあるんだけど・・・)。 このスクラップでは単語とか作りどころとかを整理するのですが、また後でRustで作ってそっちは前例がほぼないので記事にします。 Go + Clean Architectureは結構記事あるんですが、Swaggerつけたしたのと自分なりに納得いくディレクトリ構成にオリジナリティを出しました。ちなみにgo-swagger使うと本当は凄く楽に作れるのですが(ついでにフロントはopenapi-generator)、今回はClean Architectureを理解するのが主目的なので、サーバーは手書きでopenapiのyamlも1から自作しました。 ↑ postに

                                                                          Go(Echo), Gorm, Mysql, Docker, Swaggerで、クリーンアーキテクチャなAPIサーバーを作ったメモ
                                                                        • “LLM for SRE“の世界探索 - ゆううきブログ

                                                                          ChatGPTが登場した当初、対話や要約、翻訳、コード生成などの典型的な言語タスクができても、SREやAIOpsの研究開発にはあまり関係ないのではないかと正直思っていた。AIOpsでは典型的にはいわゆるObservabilityデータ(メトリクス、ログ、トレースなど)が入力となるため、自然言語ではなく数値のデータを解析することが求められる。自然言語のタスクを研究対象としていなかったため、AIOpsとChatGPTに強い関係性は見いだせなかった*1。 しかし、自分で大規模言語モデル(Large Language Model: LLM)を日常的に使用したり、表題にあるようにSREのためのLLM(LLM for SRE, LLM4SRE)に関する論文を読むうちに、LLMのテキスト生成器としての性質よりもその優れた推論機械としての性質に注目するようになった。特にSREの障害診断は、人間の専門家が推

                                                                            “LLM for SRE“の世界探索 - ゆううきブログ
                                                                          • 敵対的プロンプト技術まとめ - Qiita

                                                                            こんにちは@fuyu_quantです。 この記事はLLM Advent Calender 2023 17日目の記事です。 よかったらプライベートで作成したData Science wikiのGPTsも見て下さい! はじめに 今回は敵対的なプロンプト技術についてまとめました.まとめ方は主に,Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition というLLMに対する敵対的なプロンプト技術に関してまとめた論文を参考にしています.本記事の内容が世の中のLLMを使ったサービスの機能向上の役に立てれば幸いです. ※世の中のLLMサービスが敵対的なプロンプト手法に対応できるように公開をしたものであり,利用を

                                                                              敵対的プロンプト技術まとめ - Qiita
                                                                            • Next.js + TypeScript + AWS Amplify でアプリケーション開発 - 虎の穴開発室ブログ

                                                                              こんにちは、虎の穴ラボのNSSです。 最近ReactやTypeScriptを勉強中なのですが、Reactで作ったアプリケーションを簡単にデプロイして公開できるツールとして、AWS Amplifyがあります。 AWS Amplifyとは、AWSが提供するモバイルやWEBのアプリケーションを素早く開発することができるプラットフォームです。 AWS Amplifyは、たった数クリックでアプリケーションをデプロイできる他、 コマンドラインツールを使ってユーザー認証やAPIなど、あらゆる機能を簡単にアプリケーションに追加することができます。 今回は、ReactベースのフレームワークであるNext.js と AWS Amplifyを使ったアプリ開発をご紹介します。 環境 Node.js (v16.4.1) Next.js (v10.2.0) TypeScript Node.jsはインストール済みである

                                                                                Next.js + TypeScript + AWS Amplify でアプリケーション開発 - 虎の穴開発室ブログ
                                                                              • Vue.jsを使用してさまざまなフォームを簡単に実装できる -Vue Formulate

                                                                                Vue.jsを使用して、Webページやスマホアプリでよく使用されるフォームを簡単に実装できるVue Formulateを紹介します。 サインアップ、ログイン、メールアドレス、ファイルのアップロード、アンケートなど、さまざまなフォームをサポートしており、バリデーション機能も備えています。 Vue Formulate Vue Formulate -GitHub Vue Formulateの特徴 Vue Formulateのデモ Vue Formulateの使い方 Vue Formulateの特徴 Vue Formulateは、Vue.jsを使用してフォームを構築する最も簡単な方法です。主な機能は、フォームとフィールドの検証、ファイルのアップロード、フォームの生成、ラベルをサポートする単一要素の入力、ヘルプテキスト、エラーメッセージ、プレースホルダーなど、さまざまなプロジェクトで使用するための包

                                                                                  Vue.jsを使用してさまざまなフォームを簡単に実装できる -Vue Formulate
                                                                                • OpenAI APIのファインチューニングの学習データのガイドライン|npaka

                                                                                  以下の記事を元に、「OpenAI API」のファインチューニングの学習データのガイドラインをまとめました。 1. 学習データの書式ファインチューニングするには、単一の入力「プロンプト」とそれに関連する出力 「コンプリーション」 のペアで構成される学習データが必要です。これは、1回のプロンプトで詳細な手順や複数の例を入力するような、ベースモデルの使用方法とは大きく異なります。 「学習データの書式」のガイドラインは、次のとおりです。 ・プロンプトが終了してコンプリーションが開始することをモデルに知らせるため、区切り記号 ("\n\n###\n\n"など) でプロンプトを終了する必要があります。区切り記号は、プロンプトの他の場所で使用されない文字列を指定します。 ・コンプリーションが終了することをモデルに知らせるため、停止記号 ("\n"、"###"など)でコンプリーションを終了する必要がありま

                                                                                    OpenAI APIのファインチューニングの学習データのガイドライン|npaka