並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 711件

新着順 人気順

modelの検索結果41 - 80 件 / 711件

  • 【個人開発】正規表現を学ぶ狩りに出ませんか?モンスターを倒しながら正規表現が学べるゲーム「Regex Hunting」を作りました - Qiita

    【個人開発】正規表現を学ぶ狩りに出ませんか?モンスターを倒しながら正規表現が学べるゲーム「Regex Hunting」を作りましたRubyRails正規表現TypeScriptReact はじめに はじめまして! 個人開発者のハガユウキと申します。 突然ですが、皆さん正規表現はお好きですか? 私は好きです。「複数の文字列を一つのパターンで表現できる」部分にすごく面白味を感じています。 もっといろんな方に正規表現を知っていただきたい、好きになってほしいと思っています。 しかし、現状では2つの課題があると感じています。 正規表現の勉強自体がそもそも面白くない。 正規表現を勉強しても、しばらく使わないと忘れる。 この2つの課題を突破できるサービスは、現状存在しません。 そのため、楽しみながら正規表現を学べるサービスがあれば良いなと思いました。 作りました。 ▼スライド型正規表現学習ゲーム【Reg

      【個人開発】正規表現を学ぶ狩りに出ませんか?モンスターを倒しながら正規表現が学べるゲーム「Regex Hunting」を作りました - Qiita
    • 伊藤園「おーいお茶」CMに生成したAIタレントを起用

      伊藤園が「お~いお茶 カテキン緑茶」のテレビCMにAIタレントを起用した。AIタレント事業を手がける企業AI modelが、自社のAIタレントが採用されたことを10月3日に公表した。 CMに登場するAIタレントの名称は明らかにされていない。CMはテレビのほか、伊藤園の公式YouTubeチャンネルでも公開されており、本物の人間と見分けがつかないレベルの仕上がりだ。 AI modelによると、AIタレントが登場するテレビCMは日本初になるという。 同社は発表に際して「AI技術で生成したAI model(AIモデル)を活用して、モデル撮影の創造性や表現の豊かさを広げて、そこから得られる新しい価値などを提供していくことで、広告やファッションなど様々な業界の発展に貢献していきます」と述べている。 「お~いお茶 カテキン緑茶」シリーズは伊藤園が9月4日より販売を開始した製品。同シリーズはテレビCM以外

        伊藤園「おーいお茶」CMに生成したAIタレントを起用
      • ChatGPT入門 概要から利用方法、プログラム開発まで

        2022年11月にOpenAIがリリースしたChatGPTはユーザー(人間)と対話を行う形式でテキストを生成する「大規模言語モデル(LLM:Large Language Model)」と呼ばれるものです。ユーザーとの間で文脈に沿ったテキストを生成するのが大きな特徴ですが、適切な返答があることもあれば、どう見ても間違った返答をすることもあります。それでも、これまでのテキスト生成AIよりも格段に品質の高い出力を行う大規模言語モデルだといえます。その品質の高さから、ChatGPTをどう活用すべきかとか、ChatGPTは使うべきではないといった議論も各所で行われるほどです。 本eBookでは、ChatGPTとは何かに始まり、ChatGPTがなぜユーザーの意図に沿った返答を返せるのか、ChatGPTの技術を取り込んだマイクロソフトのBingの概要、ChatGPTからの返答をよりよいものにするためのテ

          ChatGPT入門 概要から利用方法、プログラム開発まで
        • ChatGPT plugins

          We’ve implemented initial support for plugins in ChatGPT. Plugins are tools designed specifically for language models with safety as a core principle, and help ChatGPT access up-to-date information, run computations, or use third-party services. In line with our iterative deployment philosophy, we are gradually rolling out plugins in ChatGPT so we can study their real-world use, impact, and safety

            ChatGPT plugins
          • もう仕事に追われたくない!自分起点で楽しく働くための自己管理術 - Qiita

            はじめに 仕事に追われる日々から解放され快適に楽しく働くことができる環境を実現するためには、自己管理が重要です。ここでいう「仕事に追われず快適に楽しく働ける状態」とは、自分自身で意思決定を行い、仕事の進行を自らコントロールする能力を身につけることを意味します。 多くのエンジニアは仕事の量や複雑さに圧倒され、自分のペースで仕事を進めることができないという状況に直面しています。しかし、自己管理スキルを身につけることでこれらの課題を乗り越え、より自分起点な働き方が可能になります。 この記事では、よく起きがちな問題とあわせて自己管理を強化するための具体的な方法を示します。 1. 他の人から見て何をやっているかわからない問題 主要なポイント 「あれってどうなってます?」って聞かれていませんか? これを頻繁に聞かれる場合、確実に何やっているかわからない人だと思われています タスクの状態は、必ず聞かれる

              もう仕事に追われたくない!自分起点で楽しく働くための自己管理術 - Qiita
            • ソースコードを公開したソフトウェアで収益を得ている会社

              ソースコードを公開したソフトウェアで収益を得ている会社をまとめる。いわゆる「オープンソースソフトウェア(OSS)」という有名な言葉を使わなかったのは、OSS の定義に当てはまらない、またはその可能性があるものが含まれているため。 この記事では "OSS" の定義に当てはまらないものも含め、主要な事業を構成するソフトウェアを一定のライセンスの下で公開している会社をまとめていく。このようにソースコードを公開して利用者やフィードバックを集めるビジネスモデルは open core とか COSS: Commercial Open Source Software と呼ばれているようだ。 企業が「ソースコードが公開されているソフトウェア」を利用するメリットとしては、主に以下の2つがあると考えられる。 コア機能の開発に集中できる 自社のビジネスの核となるソフトウェアの開発に集中し、それ以外の機能的・非機

                ソースコードを公開したソフトウェアで収益を得ている会社
              • 「技術的負債」への処方箋と「2つのDX」 - Qiita

                はじめに 本稿は、日経クロステックにて筆者が昨年連載していた3回分の記事一部変更して1つにまとめたものです。 https://xtech.nikkei.com/atcl/nxt/column/18/01394/ 有料記事として配信されておりますが、無料でも閲覧できるようにということで日経クロステック様に許可を得てQiitaにも掲載しています。 第1回:技術的負債はなぜ生じるか。 第2回:ソフトウエア開発を「制御」する意外な処方箋 第3回:技術的負債への取り組みはなぜ「2つのDX」につながるのか。 第1回:技術的負債はなぜ生じるか。 年間12兆円ものマイナスの影響をもたらす技術的負債(あるいはレガシーシステム)はどのように生まれるのでしょうか。それを防ぐ方法はあるのでしょうか。第1回は、技術的負債をとりまく歴史をたどりながら、ソフトウェアエンジニアではない人にも理解できるようにその正体に迫り

                  「技術的負債」への処方箋と「2つのDX」 - Qiita
                • Sora: Creating video from text

                  Sora Creating video from text Sora is an AI model that can create realistic and imaginative scenes from text instructions. Read technical report We’re teaching AI to understand and simulate the physical world in motion, with the goal of training models that help people solve problems that require real-world interaction. Introducing Sora, our text-to-video model. Sora can generate videos up to a mi

                    Sora: Creating video from text
                  • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第二回:「アジア美女」最新モデルBRAV6作例とネガティブプロンプトの基礎 | テクノエッジ TechnoEdge

                    使用したNegative Promptは、「1.無し」、「2.ほぼ最小限」、「3.筆者標準」、「4.embeddingsを使う」の4つパターン。 4番目だけ他と違い別途ファイルが必要となり、ダウンロードしたファイルを[Stable Diffusionのホームディレクトリ]/embeddingsへコピーする。Negative PromptでEasyNegativeなどをよく見かけるがそれだ。ここではng_deepnegative_v1_75tとbadhandv4が該当する。Promptで書く替わりに、特別に学習したModelで同じ効果を得られるようになっている。 無し (worst quality:2),illustration, 3d, painting, cartoons, sketch, illustration, 3d, sepia, (painting), cartoons, sk

                      生成AIグラビアをグラビアカメラマンが作るとどうなる?第二回:「アジア美女」最新モデルBRAV6作例とネガティブプロンプトの基礎 | テクノエッジ TechnoEdge
                    • Bard が日本語に対応

                      Bard は、ジェネレーティブ AI を活用してユーザーをサポートする Google の試験運用中のサービスです。旅行プランの案を出したり、ブログ記事の構成案を作成したりと、英語での公開から 2 か月弱の間に、すでに多くのユーザーに様々な方法でお使いいただいています。 そして、本日より Bard が日本語でも利用できるようになりました。「おいしい卵焼きを作るためのコツを教えて」や「夏休みの自由研究のアイデアを出して」など、 創造性と生産性を高めるパートナーとして、 bard.google.com から、Bard をぜひお試しください。 Bard とは Bard は、Google の大規模言語モデル( LLM : Large Language Model )である PaLM 2 を利用しています。LLM は言語のパターンを拾い上げること、それを使って文章の中で次に来る確率の高い単語を予測する

                        Bard が日本語に対応
                      • 画像付きのノベルゲームを遊べるプロンプトを作ったら臨場感が溢れすぎた話|ちゅーりん

                        「ChatGPTで画像も出力できたらいいのにな…」 という問題が解決しました! さっそくですが、以下のプロンプトを「GPT4」に貼ればゲームを開始できます。 1,中世ヨーロッパの物語 GPT-4 AI ゲームマスターとして、あなたはプレイヤーが少女に協力して彼女と共に危機に見舞われた王国を救う冒険をするため、「交換日記と時空の絆」を導きます。 物語は、中世ヨーロッパの世界と現代の地球が絡み合った世界で展開されます。プレイヤーは、現代の地球で暮らす普通の人物であり、チャットを入力していると、それが手元にあった中世ヨーロッパの歴史が変わっていくことに気付きます。このチャットは、その時代に生きる少女、カイとチャットでコミュニケーションを取ることができる特別なものです。カイは冒険に際して手帳を持っており、そこにプレイヤーのチャットの内容が交換日記のように日を追うごとに追記されていきます。また、筆記

                          画像付きのノベルゲームを遊べるプロンプトを作ったら臨場感が溢れすぎた話|ちゅーりん
                        • 高木浩光@自宅の日記 - Claude 3に例の「読了目安2時間」記事を解説させてみた

                          ■ Claude 3に例の「読了目安2時間」記事を解説させてみた Anthropicの先日出たばかりのClaude 3(Opus)が、ChatGPTのGPT-4を超えてきたと聞いて、自分の原稿を解説させてみたところ、確かに革新的な進歩が見られる。もはや内容を「理解」しているようにしか見えない。GPT-4では、昨年11月に試した時には、そうは見えず、優れた文章読解補助ツールという感じでしかなかった。 一昨年のCafe JILIS「高木浩光さんに訊く、個人データ保護の真髄 ——いま解き明かされる半世紀の経緯と混乱」は、発表した当時、長すぎて読めないから誰か要約してという悲鳴があがっていた。その後、ChatGPTの登場で、その要約能力に期待されたが、冒頭のところしか要約してくれなかったり、薄い論点リストが出てくるだけで、その期待に応えられるものではなかった。 もっとも、GPT-4でも、質問力があ

                          • プログラミングを学ぶにあたって詰まったことと、そこから学んだこと - mizchi's blog

                            toyokeizai.net satoru-takeuchi.hatenablog.com 全然レイヤーが違うが、自分が何に悩んで、どういう風に理解したか、思い出しながら書き出してみる。 プログラミング歴 20歳からなので、現時点で10年ぐらいだが、中学生の時ちょっと触ったことがあった。 14 歳: 病気で入院したときに暇すぎて、2 週間ほど VBA を触った 大学 1 年: 大学の選択科目で Java, 夏休みに Python と Ubuntu の独習 大学 3 年: Python で自然言語処理のバイト 大学 4 年: Android アプリを作るバイト、就活ポートフォリオとして node/Websocket で MMO 一社目: Unity, ActionScript, Haskell, JavaScript 以降~: JavaScript/CoffeeScript/TypeScri

                              プログラミングを学ぶにあたって詰まったことと、そこから学んだこと - mizchi's blog
                            • ChatGPTは馬鹿じゃない! 真の実力を解放するプロンプトエンジニアリングの最前線

                              はじめに ChatGPTをはじめとしたLLMを使いこなすための必須スキル、プロンプトエンジニアリング について解説します。 最近は動きが早すぎてキャッチアップが難しくなっていますが、特に以下のような手法が注目されているようです。 In-context Learning (ICL) Chain-of Thought (CoT) Zero-shot CoT ReAct Self-Consistency Program-aided Language Model (PAL) 今回は、6つのテクニックの中からPart1として、ICL、CoT、そしてZero-shot CoTの3つを紹介します。 これらのテクニックは、ChatGPTをはじめとするLLMのポテンシャルを最大限に引き出すために必要不可欠です。 さらに、各テクニックを詳しく解説した論文も紹介していますので、是非ご一読ください。 In-con

                                ChatGPTは馬鹿じゃない! 真の実力を解放するプロンプトエンジニアリングの最前線
                              • コードの健全性: 礼儀正しいレビュー == 役立つレビュー

                                .app 1 .dev 1 #11WeeksOfAndroid 13 #11WeeksOfAndroid Android TV 1 #Android11 3 #DevFest16 1 #DevFest17 1 #DevFest18 1 #DevFest19 1 #DevFest20 1 #DevFest21 1 #DevFest22 1 #DevFest23 1 #hack4jp 3 11 weeks of Android 2 A MESSAGE FROM OUR CEO 1 A/B Testing 1 A4A 4 Accelerator 6 Accessibility 1 accuracy 1 Actions on Google 16 Activation Atlas 1 address validation API 1 Addy Osmani 1 ADK 2 AdMob 32 Ads

                                  コードの健全性: 礼儀正しいレビュー == 役立つレビュー
                                • 「無職になったらいくらかかる?」を計算するサービスをリリースしました!

                                  昨今、エンジニア界隈への転職は賑わっていますよね。「今の仕事をやめて、勉強に専念して、未経験から転職するぞ!」という方も多くいらっしゃると思います。 でもちょっと待ってください。仕事をやめたらお金は大丈夫ですか? 今は大体月10万円くらいで過ごしているから、1年勉強するなら貯金が10万円 × 12ヶ月 = 120万円あればOK...ではなく、今まで会社が天引き・折半していたお金を、会社をやめたら自分で払う必要が出てきます。 いざ調べてみると、どんなお金を払うのか?計算方法はどうするのか?まあややこしいです。 というわけで、そんなお金を一括で計算してくれるサービスをリリースしました🎉 サービスURL サービスURL リポジトリ サービスの概要 quitcost(クイットコスト) は、 「転職準備のためにしばらく無職になる予定だけど、『どんな』お金が『いくら』かかるのかわかりづらい」 という

                                    「無職になったらいくらかかる?」を計算するサービスをリリースしました!
                                  • Command Line Interface Guidelines

                                    Contents Command Line Interface Guidelines An open-source guide to help you write better command-line programs, taking traditional UNIX principles and updating them for the modern day. Authors Aanand Prasad Engineer at Squarespace, co-creator of Docker Compose. @aanandprasad Ben Firshman Co-creator Replicate, co-creator of Docker Compose. @bfirsh Carl Tashian Offroad Engineer at Smallstep, first e

                                      Command Line Interface Guidelines
                                    • ChatGPTを業務に組み込むためのハンズオン.pdf

                                      ChatGPTを業務に組み込むためのハンズオン 2023/06/26 一般公開用 デジタル庁 Fact&Data Unit 大杉直也 ↑マイナンバー交付数のダッシュボードを作っているところです 「Microsoft でテストされたアイデアのうち、改善を示すメトリクスを実際に改善できたのは3分の1にすぎない」 (Microsoft社 元Vice President) 「もしあなたが実験主導のチームにいるなら、70%の仕事が捨てられることに慣れてください。それに応じてプロセスを構築しましょう」(Slack社 Director) A/Bテスト実践ガイド p14より 一方で 「アイデアの価値を見積もることは難しい。このケースでは、年間1億ドルの価値ある単純な変更が何か月も遅れていた。」(同著 p5より) こともあります 午前中のアイデアソンで出たアイデアはちゃんと検証するまで価値があるかは不明です

                                      • AI の次の重要な一歩

                                        AI は、Google が現在取り組んでいる中で最も本質的なテクノロジーです。AI は、医師による病気の早期発見の支援や、自国語での情報へのアクセスなど、人々、ビジネス、コミュニティの潜在能力を引き出します。そして、数十億人の生活を大きく改善できる新しい機会を提供します。6 年前から、私たちが Google の方向性を AI 中心に再編し「世界中の情報を整理し、世界中の人がアクセスできて使えるようにする」という Google のミッションを果たす最も重要な方法に AI を据えているのは、これが理由です。 以来、私たちは全面的に AI への投資を継続し、Google AI と DeepMind のチームは最先端のテクノロジーを進化させています。現在、AI の計算規模は半年ごとに倍増していますが、それはムーアの法則よりもはるかに早いペースです。同時に、高度なジェネラティブ AI と大規模言語モ

                                          AI の次の重要な一歩
                                        • Engadget | Technology News & Reviews

                                          Tesla cuts Model Y, X and S prices in the US and says it’s ending the referral program

                                            Engadget | Technology News & Reviews
                                          • システムの複雑さはどこから来るのか – Out of the tar pitを読む - Uzabase for Engineers

                                            Uzabase Saas Product Divisionフェローの矢野です。 この記事は、Rich Hickey(プログラミング言語Clojure作者)のプレゼンテーションSimple Made Easyへと繋がっていく、Ben MoseleyとPeter Marksによる「Out of the tar pit」というシステム設計について論じた論文の内容について説明したもので、ユーザベースのSaas Productでのテック発表の一つとしてプレゼンしたものを、ブログとして再度まとめたものです。プレゼン自体は25分くらいでしたので、おそらくこの記事の方がプレゼンよりも詳しいと思います。 ソフトウェア危機 ソフトウェアは本質的に複雑 ソフトウェアの複雑さはどこから来るのか? 複雑さは、別の複雑さを産む 複雑さを分類する 本当に必要な複雑さと、そうでないものがある どうやって複雑さを扱うのか

                                              システムの複雑さはどこから来るのか – Out of the tar pitを読む - Uzabase for Engineers
                                            • 機械学習のパラメータチューニングを「これでもか!」というくらい丁寧に解説 - Qiita

                                              はじめに 私はこれまで機械学習のパラメータチューニングに関し、様々な書籍やサイトで学習を進めてきました。 しかしどれもテクニックの解説が主体のものが多く、 「なぜチューニングが必要なのか?」 という目的に関する記載が非常に少なかったため、体系的な理解に苦労しました。 この経験を後世に役立てられるよう、「初心者でも体系的に理解できる丁寧さ!」をモットーに記事にまとめたいと思います。 具体的には、 1. パラメータチューニングの目的 2. チューニングの手順とアルゴリズム一覧 3. Pythonでの実装手順 (SVMでの分類を例に) の手順で解説を進めます。 独自解釈も含まれるため、間違っている点等ございましたら指摘頂けると有難いです。 なお、文中のコードはこちらのGitHubにもアップロードしております。 2021/9/6追記:LightGBMのチューニング実行例追加 以下の記事に、Ligh

                                                機械学習のパラメータチューニングを「これでもか!」というくらい丁寧に解説 - Qiita
                                              • Raspberry Piの消費電力をカリカリにチューニングする - あっきぃ日誌

                                                特に気にもしていなかったために今まで知らなかったのですが、Raspberry Piを節電のために色々無効化できるらしく、とくにHDMIを無効化して30mA節約できるあたりに感動したので、自宅の常設Raspberry Piに一通り設定しつつ、Ansible Playbookを書いてみました。 github.com varsはこんなかんじ。ご使用のモデルと用途に応じてnoをyesに変えてください。コミットではgroup_varsにおいてますが、host_varsに置いてホスト単位で管理したほうがいいかなと思います。 # HDMIの無効化 (All model) # 30mAくらい減る disable_hdmi: no # ACT・電源のLEDを消灯 (1B+/1A+以降,Zeroはactのみ) # 数mA減る disable_led_act: no disable_led_power: no

                                                  Raspberry Piの消費電力をカリカリにチューニングする - あっきぃ日誌
                                                • GitHub Copilotの全社導入とその効果 - ZOZO TECH BLOG

                                                  はじめに こんにちは、CTO/DevRelブロックの堀江(@Horie1024)です。ZOZOではGitHub Copilotを全社へ導入しました。本投稿では、GitHub Copilotの導入に際して検討した課題とその課題の解決策としてどのようなアプローチを取ったのかを紹介します。 目次 はじめに 目次 GitHub Copilotとは何か? GitHub Copilot導入の背景と目的 導入する上での課題 セキュリティ上の懸念 ライセンス侵害のリスク GitHub Copilot for Businessの利用 導入による費用対効果 試験導入による費用対効果の見積もり 試験導入の実施 対象者の選出 アンケートの設計 試験導入の実施 アンケート結果の集計 アンケート結果の考察 費用対効果の見積もり 全社導入の判断 導入決定後のGitHub Copilot利用環境の整備 社内LT会 おまけ

                                                    GitHub Copilotの全社導入とその効果 - ZOZO TECH BLOG
                                                  • 自閉症原因は胎児期の造血系細胞の異常、神戸大学が解明

                                                    神戸大学大学院の内匠透教授らの国際共同研究グループは、特発性自閉症の原因が胎児の時の造血系細胞のエピジェネティック(注)な異常であり、その結果が脳や腸に見られる免疫異常であることを明らかにした。 自閉症発症における免疫障害の重要な発達段階と免疫系の広範な関与を考慮し、研究チームは共通の病因が広範な免疫調節不全の根底にあり、異なるタイプの前駆細胞にあると仮定した。免疫細胞のもとになる血球系細胞に注目、さらに、胎児の時の造血に関わる卵黄嚢(YS)と大動脈-生殖腺-中腎(AGM)に焦点をあてて解析を行った。 研究グループは、自閉症モデル動物のBTBRマウスを用いてAGM血球系細胞を解析し、免疫異常の病因としてHDAC1(ヒストン脱アセチル化酵素1)を同定した。また、YS血球系細胞の解析により、ミクログリア(中枢神経系グリア細胞の一つで中枢の免疫を担当)発達異常の病因として同じくHDAC1を同定し

                                                      自閉症原因は胎児期の造血系細胞の異常、神戸大学が解明
                                                    • 「好きな曲と似た雰囲気の曲」をAIが1億2000万曲の中から見つけ出してくれる「Maroofy」

                                                      ある楽曲が気に入って「同じような雰囲気の曲をもっと聴きたい!」と思っても、音楽ストリーミングサイトや動画サイトからタイトルやアルバムアートを手がかりにして似た雰囲気の曲を探し出すのは至難の業です。そこでプログラマーのSubhash Ramesh氏が、iTunes Storeにある1億2000万曲から「特定の曲と似た雰囲気の曲」を探し出してくれるAIサービス「Maroofy」を公開しました。 Maroofy https://maroofy.com/ ✨ Introducing Maroofy Search for any song & it'll use the song's audio to find similar-sounding music. ???? Powered by an AI model trained on 120M+ songs, for ???? recommenda

                                                        「好きな曲と似た雰囲気の曲」をAIが1億2000万曲の中から見つけ出してくれる「Maroofy」
                                                      • 控え目に言って革命。OpenAI、動画生成AIモデル「Sora」発表

                                                        OpenAIは2月15日(現地時間)、テキストから最大1分間の動画を生成できる動画生成AIモデル「Sora」を大量のデモ動画と共に発表した。複数のキャラクター、特定の種類の動き、被写体と背景の正確な詳細を含む複雑なシーンを生成することができるという。 プロンプトから破綻のない動画を生成 Introducing Sora, our text-to-video model. Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W Prompt: “Beautiful, snowy… pic.twitter.com

                                                          控え目に言って革命。OpenAI、動画生成AIモデル「Sora」発表
                                                        • Engadget | Technology News & Reviews

                                                          Tesla cuts Model Y, X and S prices in the US and says it’s ending the referral program

                                                            Engadget | Technology News & Reviews
                                                          • Linux システムコール 徹底入門

                                                            Linux システムコールについて調べたことをまとめる。システムコールの仕組みを理解すると、 OS とアプリケーションがどのように連携して動いているのかを理解できるようになります。 システムコールは CPU に依存する処理が多いため、 x86_64 に絞ります。 検証環境]# cat /etc/redhat-release CentOS Linux release 8.0.1905 (Core) ]# uname -a Linux localhost.localdomain 4.18.0-80.11.2.el8_0.x86_64 #1 SMP Tue Sep 24 11:32:19 UTC 2019 x86_64 x86_64 x86_64 GNU/Linux ]# cat /proc/cpuinfo | head processor : 0 vendor_id : GenuineInte

                                                              Linux システムコール 徹底入門
                                                            • Sakana AI

                                                              概要 Sakana AIは進化や集合知などの自然界の原理を応用して基盤モデルを開発することを目指しています。私達の目標は、モデルを自ら訓練し開発することだけではありません。基盤モデルの開発を効率化、高度化、自動化するための新たな手法を生み出すことに挑戦しています。この目標に向けた第一歩として、私たちはプレプリント「Evolutionary Optimization of Model Merging Recipes (モデルマージの進化的最適化)」を公開しました。 このリリースの要点は以下の通りです。 進化的モデルマージという手法を提案します。これは、多様な能力を持つ幅広いオープンソースモデルを融合(マージ)して新たな基盤モデルを構築するための方法を、進化的アルゴリズムを用いて発見する手法です。私たちの手法は、ユーザーが指定した能力に長けた新しい基盤モデルを自動的に作成することができます。既

                                                                Sakana AI
                                                              • マンション懸垂壁オナから始めるライフハック - 本しゃぶり

                                                                人は運命のイタズラで道を踏み外すことがある。 だがその裏にはメカニズムが存在する。 感情の仕組みを理解して、人生をコントロールする術を授けよう。 高さ20mでの懸垂 こんなツイートが流れてきた。 精通が登り棒で股間を擦ったせいだったので、何故か性的快感と「高さ」が結びついてしまい、小学校3~4年の頃にマンションの7階か8階からブラ下がり、懸垂みたいな感じで壁に局部を擦りつける自慰行為をしていた。あれは一歩間違えれば死んでいたので、やはり性教育は大事だと思う。— 加藤よしき (@DAITOTETSUGEN) September 15, 2020 読んだ時、思わず笑ってしまう。この人の自慰行為が命がけだからではない。「これ、本で読んだやつだ」となったからである。しかも複数のメカニズムが加藤少年に影響を及ぼしたように見受けられる。その結果、彼は性的快感を求めて命を危険に晒すようになったのだ。 人

                                                                  マンション懸垂壁オナから始めるライフハック - 本しゃぶり
                                                                • GPTの仕組みと限界についての考察(2.1) - conceptualization

                                                                  全3回のシリーズパート2の本記事では、GPTの能力と可能性をAttention/Transformerの仕組みをふまえて考察します。 というつもりでしたが、凄く長くなってしまったのでパート2は以下の3回に分けようと思います。 (2.1)各技術の定性的な説明(本記事) (2.2)Transformerのアルゴリズム詳細 (2.3)GPTの能力と可能性について 2.1 各技術の定性的な説明 自然言語の構造を考えてみる まず我々が使う言語についてちょっと振り返るところから話を始めましょう。 文や文章は、おおもとのデータである文字から始まって、単語、文節、句、節、文、文章、さらにその上の意味、という風に階層的な構造を持っていると我々は概念的に認識してますよね。 構文の階層 そして、各階層や階層間には、文法や語法といった言葉のルールがあります。 深層学習はその名の通り、層を深くしたニューラルネットワ

                                                                    GPTの仕組みと限界についての考察(2.1) - conceptualization
                                                                  • ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ

                                                                    2022年11月にChatGPTが公開され、たった1週間で100万ユーザーを超えたのをきっかけに、GoogleのBardやMicrosoftのBing AI Chatなど、大規模言語モデルを利用したチャットAIが続々とリリースされています。チャットAIを研究しているセバスティアン・ラシュカさんが、チャットAIが実用化されるまでの研究の軌跡を重要な論文24個に絞って要約しています。 Understanding Large Language Models - by Sebastian Raschka https://magazine.sebastianraschka.com/p/understanding-large-language-models ◆目次 ・主要なアーキテクチャとタスク ・スケーリングと効率性の向上 ・言語モデルを意図した方向へ誘導する ・人間のフィードバックによる強化学習(

                                                                      ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ
                                                                    • 30分で完全理解するTransformerの世界

                                                                      はじめに 初めまして。ZENKIGENデータサイエンスチームのはまなすです。正式な所属はDeNAデータ本部AI技術開発部なのですが[1]、業務委託という形で今年度から深層学習系の開発等に携わっています。 深層学習界隈では、2017年に衝撃的なタイトル(Attention Is All You Need)の論文が発表されてから早5年半、元出自の機械翻訳タスクを大きく越えて、Transformer関連の技術が様々な領域で用いられる汎用アーキテクチャとして目覚ましく発展し続けています。 今回はそんなTransformerが現時点までにどのように活用されてきたか、また、どのように工夫されてきたかをざっくりと俯瞰し、流れをおさらいする目的の記事になります。本記事の大枠は、2021年時点でのサーベイ論文である A Survey of Transformers に倣いつつ、適宜、2023年2月上旬現在ま

                                                                        30分で完全理解するTransformerの世界
                                                                      • プログラマーのための原則(2 万字) - Qiita

                                                                        はじめに 今でも語り継がれる「原則」は、それだけ価値のあるコンセプトです。 歴史を振り返ることは、失敗を防ぐための効率の良い方法になります。 👑 DRY (Don't repeat yourself) 「同じことを繰り返すな。」 Andy Hunt と Dave Thomas の著書『達人プログラマー』(1999 年)で提唱された原則で、プログラミングに関する最も重要な原則といっても過言ではありません。 DRY 原則だけでなく、どんなデザインパターンやベストプラクティスでも、同じ処理が重複することは基本的に許されていません。 これにはどういう意図が込められているのでしょうか。 🔖 表面的な理由 この原則は、コードの再利用性を高め、そのために疎結合な状態を保つことは、極めて有用なことを示唆します。 1 箇所を直せば済むべき箇所をあちこちに分散させてしまうのは、自分で事故を招いているのと同

                                                                          プログラマーのための原則(2 万字) - Qiita
                                                                        • 5年間 Laravel を使って辿り着いた,全然頑張らない「なんちゃってクリーンアーキテクチャ」という落としどころ

                                                                          この記事は Laravel Advent Calendar 2020 - Qiita 最終日の記事です。 TL;DR DDD や "真の" クリーンアーキテクチャは, Web 業界における大抵の現場ではオーバースペックだし,導入しても全員がついてこれるとは限らない app/UseCases ディレクトリだけ切って,ドメインごとに単一責務なクラスを置くと使いやすいよ ActiveRecord 指向のフレームワークで Repository パターンを無理に導入すると死ぬので, UseCase で Eloquent Model の機能を使うことを恐れるな はじめに Zenn では初投稿です。日本の Laravel コミュニティではもうお馴染みのようで実はあまり顔を出していない(?) @mpyw と申します。オンラインサロンの火付け役となった Synapse が最初の仕事でしたが,就職後すぐ会社が

                                                                            5年間 Laravel を使って辿り着いた,全然頑張らない「なんちゃってクリーンアーキテクチャ」という落としどころ
                                                                          • 雑に作って、それから作り込んで、最後にテストを書く「テストラスト」開発 - give IT a try

                                                                            (この話は最初Twitterに書こうと思ったけど、長くなるのでブログに書くことにしました) 僕はRSpecやMinitestでテストを書くのは得意ですが、常にテストファースト(TDD)で開発するとは限りません。 今業務でやってるタスクはこんなふうに進めてます。 雑に動くものを作る ↓ 見た目をきれいにする&機能を作り込む ↓ テストを書く ↓ リファクタリングする この順番で開発する理由を以下に述べます。 雑に動くものを最初に作る理由 最初は見た目とか、異常系とか、細かい仕様とかを無視して、正常系が一通り動くものを作ります。 これはこれから作ろうとしているものの認識が合っているかどうかをPO(プロダクトオーナー)に確認するためです。 実際に動く画面を見せると「こんな感じでOK」とか「ここはこういうふうにしたい」というフィードバックをもらうことができます。 また、開発者としてもコードを書きな

                                                                              雑に作って、それから作り込んで、最後にテストを書く「テストラスト」開発 - give IT a try
                                                                            • 良いコード/悪いコードで学ぶ設計入門の感想と注意点

                                                                              「良いコード/悪いコードで学ぶ設計入門」という本がとても売れているようです。私の所属している開発チームでも、何人か購入した人がいたので、私も購入して一通り読んでみました。 結果として、いくつかの考えが整理され、私としてはこの本によって考えが深まり、本を読んで考えた事自体は有意義であったと思いました。ただし一方で、あまり知識がない状態で(自分の中での判断軸が無い状態で)この本を読むと、色々と誤解が生まれるのではないか?という事を感じました。 一つの技術書がこれだけ売れるという事はそんなに多くはない事だと思うので、つまり、 その内容が改善されるとその効果は相対的に大きい という事になります。そこで、私が本を読んでいて思ったことや、この本の内容で正しいこと、現在も賛否両論とされること、事実として認識が間違っているであろうこと、この本で触れられていないが設計において大事なこと、などについてまとめて

                                                                                良いコード/悪いコードで学ぶ設計入門の感想と注意点
                                                                              • 「想像以上に深刻です」車が突然シャットダウン…?今年の9月に納車されたテスラがぶっ壊れてしまった

                                                                                つくも@素人系テスラー @tsukumo_teslapr テスラモデル3を20年6月末に発注し、9月13日に納車されたアカウント。テスカスフォーラムもたまに荒らしています。気が向いた時にツイートします。BEV3台所有。 BEV過激分子。夜の街関連 ZESP2 22年5月末まで。リーフぶつけた。model3ぶつけそう。 アイコン芸人。Model3Performance乗ってます

                                                                                  「想像以上に深刻です」車が突然シャットダウン…?今年の9月に納車されたテスラがぶっ壊れてしまった
                                                                                • Jupyter AIが出た!試した!!すごい!!! - Qiita

                                                                                  ターミナルにトークン付きのURLが表示されますので、ブラウザでアクセスします。 起動しました。 チャットインターフェイス 左パネルにチャットのボタンが追加されています。 Welcomeメッセージが表示されます。 language modelとembedding modelを選択します。 これで準備完了です。 チャットができます。 おお! ノートブックについて質問できる ただチャットができるだけではありません。ノートブックのセルに対して範囲選択をすると、チャットエリアの下部にInclude selectionとReplace selectionが表示されます。 Include selectionだと選択したコードを含んだ形で質問ができます。 すっげー! (DefaultActor pid=473) (DefaultActor pid=473) (DefaultActor pid=473) >

                                                                                    Jupyter AIが出た!試した!!すごい!!! - Qiita