並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 1027件

新着順 人気順

言語の検索結果281 - 320 件 / 1027件

  • Wasm版PostgreSQLに生成AIを組み合わせた「Postgres.new」無料公開。自然言語でクエリ、エンベディングの作成、CSVからテーブル自動生成など

    Wasm版PostgreSQLに生成AIを組み合わせた「Postgres.new」無料公開。自然言語でクエリ、エンベディングの作成、CSVからテーブル自動生成など PostgreSQLをベースにしたBaaS(Backend as a Service)の「Supabase」を開発し提供しているSupabase社は、WebAssembly版PostgreSQLである「PGlite」と生成AIを組み合わせ、Webブラウザ上でPostgreSQLを自然言語で操作できる「Postgres.new」を無料で公開しました。 参考:WebAssemblyとしてPostgreSQLをビルドした「PGlite」公開。Node.jsやブラウザ上でPostgreSQLを実行、DBの永続化も可能 Postgres.newはWebブラウザ上でWebAssembly版のPostgreSQLである「PGlite」を簡単に

      Wasm版PostgreSQLに生成AIを組み合わせた「Postgres.new」無料公開。自然言語でクエリ、エンベディングの作成、CSVからテーブル自動生成など
    • PyTorchやPythonなしの純粋なC言語を使用した大規模言語モデルトレーニングツール「llm.c」がリリースされる

      AIの本体と言える大規模言語モデル(LLM)のトレーニングはほとんどの場合PyTorchやPythonを使用して行われていますが、そうしたトレーニングを純粋なC言語のみで実装したツール「llm.c」が登場しました。まだ最適化が行われておらず従来の手法に速度面では敗北していますが、GPT-2のトレーニングを行う実装を約1000行のクリーンなコードで行えています。 GitHub - karpathy/llm.c: LLM training in simple, raw C/CUDA https://github.com/karpathy/llm.c 作者のアンドレイ・カルパシー氏はOpenAIの創設グループの一員で、テスラのAIディレクターだった事もある人物です。 llm.cを使用することで、245MBの容量を持つPyTorchや107MBの容量を持つcPythonを使用せずに大規模言語モデル

        PyTorchやPythonなしの純粋なC言語を使用した大規模言語モデルトレーニングツール「llm.c」がリリースされる
      • Z会 社内の「共通言語」を作る昇格試験の課題図書4冊

        通信教育事業を中核に参考書・問題集の出版や塾経営などさまざまな教育サービスを提供するZ会グループ。Z会では、昇格試験のために階層別の課題図書を設定しているといいます。どのような本を選び、どのように試験を行っているのでしょうか。同社総務人事部の穴澤英美子さん、中島貴之さん、小林千晶さんに聞きました。前編の今回は、昇格試験の仕組みと一般社員階層の課題図書について。 1回目の昇格試験の課題図書は? 日経BOOKプラス編集部(以下、──) Z会には受験勉強でお世話になった人も多いと思います。現在の事業内容を教えてください。 総務人事部人材開発課 採用・教育担当 小林千晶さん(以下、小林) 1931年に通信教育事業からスタートしました。現在は幼児から社会人までを対象に、出版や塾経営と事業を多角化していますが、やはり中核は通信教育となります。

          Z会 社内の「共通言語」を作る昇格試験の課題図書4冊
        • 自分が Moonbit 言語について知っていること

          I will write an English version later to give back to the moonbit community. Addition: https://gist.github.com/mizchi/aef3fa9977c8832148b00145a1d20f4b この記事はリバースエンジニアリングを含んでいる。公式の Discord サーバーで質問して得られた内容を含むが、ここに書かれたものは自分の理解であって、公式の見解ではない。 前の紹介記事では煽り気味だったので、実際に調べながら書いてみてどう感じているかという実践的な話をする。 作者と開発組織 開発母体は深センの研究組織 IDEA 元 Meta で BuckleScript | ReScript を開発していた Hongbo Zhang 氏がチーフアーキテクト。 ReScript を知らない人の

            自分が Moonbit 言語について知っていること
          • ユビキタス言語はバックエンドエンジニアから始めよう

            https://increments.connpass.com/event/310090/ 2024/03/01「Wantedly x Qiita Meetup #2 Rubyを用いたプロダクト開発」の資料です。 本発表では、モデリングという役割を持つバックエンドエンジニアこそ、 開発段階から…

              ユビキタス言語はバックエンドエンジニアから始めよう
            • GPTやLlamaなどの大規模言語モデルはファインチューニングで簡単に脱獄可能だという研究結果

              大規模言語モデルには、有害なコンテンツを出力しないようなセーフガードが設けられています。プリンストン大学、バージニア工科大学、IBMリサーチ、スタンフォード大学の研究チームがOpenAIのGPT-3.5 TurboとMetaのLlama-2-7b-Chat大規模言語モデルを検証した結果、小規模なファインチューニングでセーフガードを外すことができたと報告しています。 [2310.03693] Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To! https://arxiv.org/abs/2310.03693 AI safety guardrails easily thwarted, security study finds • The Register https:

                GPTやLlamaなどの大規模言語モデルはファインチューニングで簡単に脱獄可能だという研究結果
              • ESLintがJavaScript以外にも対応言語を広げるとの方針を説明。まずはJSON、Markdownへの対応プラグインを開発

                ESLintがJavaScript以外にも対応言語を広げるとの方針を説明。まずはJSON、Markdownへの対応プラグインを開発 JavaScriptコードの構文やスタイルをチェックできる「ESLint」の開発者であるNicholas C. Zakas氏は、ESLintのブログに投稿した記事「What's coming next for ESLint」で、今後ESLintをJavaScriptだけでなく他の言語にも対応させていく方針を説明しました。 We're excited to share our plans for the future of ESLint:https://t.co/4joAwfRqkR — ESLint (@geteslint) July 5, 2024 ESLintはJavaScriptの構文やスタイルなどをチェック ESLintはその名前にあるように、いわゆる

                  ESLintがJavaScript以外にも対応言語を広げるとの方針を説明。まずはJSON、Markdownへの対応プラグインを開発
                • Go 言語だって minify されたい!「mingo」の紹介

                  HTML/CSS や JavaScript など、 Web フロントエンドにおいては配信時にファイルを minify することが一般的です。 ファイルを minify する = ファイルサイズを小さくすることでネットワークの通信量を削減し、結果として Web ページの読み込み速度を向上させることができます。 <!-- 例えばこれが --> <!DOCTYPE html> <html> <head> <title>Hello World Sample</title> </head> <body> <h1>Hello, World!</h1> <button id="button">Click</button> </body> <script> const button = document.getElementById("button"); button.addEventListener("

                    Go 言語だって minify されたい!「mingo」の紹介
                  • 漢字研究者の日常(漢字研究は言語学か)|OKAGAKI Hirotaka

                    日本語学(表記)の研究者を自称している岡墻(おかがき)です。 以下の文は「言語学な人々 Advent Calendar 2023」の12/6の記事として書きました。 また、今回の記事にあわせてnoteも登録してみました。なにぶん不慣れなのでうまく書けるか分かりませんが、よろしくお願いします。(公開予定日から遅れてしまいました。もうしわけありません。) 漢字研究者は言語学者か研究者には専門とする領域・分野があります。上にも自己紹介したとおり、必要に迫られた時に岡墻は自分の専門を「日本語学(表記)」と表現することにしています。 奇しくも12/3の記事で宇都木昭先生が類似の内容をお書きになっていますが、研究者にとって自分の研究分野というものは重要なアイデンティティの一部です(だと思います)。 一応、長年日本語学会に所属し、滞納せずにせっせと学会費を納め、学会発表もしたことがあるので、基本的には間

                      漢字研究者の日常(漢字研究は言語学か)|OKAGAKI Hirotaka
                    • 「医療」に特化したオープンソースの大規模言語モデル「Meditron」が登場

                      Metaの大規模言語モデル(LLM)である「Llama 2」をベースに医学書でトレーニングした、医療専門のLLMスイート「Meditron」が登場しました。登場直後であるため正規採用はまだ推奨されていないものの、医療分野に関する能力がGPT-3.5を上回っていることが報告されています。 [2311.16079] MEDITRON-70B: Scaling Medical Pretraining for Large Language Models https://arxiv.org/abs/2311.16079 GitHub - epfLLM/meditron: Meditron is a suite of open-source medical Large Language Models (LLMs). https://github.com/epfLLM/meditron 大規模言語モデル

                        「医療」に特化したオープンソースの大規模言語モデル「Meditron」が登場
                      • 話す言語によって時間の感覚が変わるという研究結果

                        アメリカの言語学者であるベンジャミン・ウォーフは、「言語がその人の考え方に影響する」という仮説を提唱しています。実際に、複数言語の勉強は認知能力を高め頭の回転を早くすると言われていたり、世界の見方が変わる言語とされるものがあったりするほか、アメリカ心理学会の学術雑誌に掲載された論文では、言語の違いは「時間経過に対する認識」にも影響を与えることが指摘されています。 The Whorfian time warp: Representing duration through the language hourglass - PubMed https://pubmed.ncbi.nlm.nih.gov/28447839/ The language you speak changes your perception of time | Popular Science https://www.pops

                          話す言語によって時間の感覚が変わるという研究結果
                        • 大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?

                          組織には構造化されたデータベースやきれいにフォーマットされたCSVのほか、何気なく書いたメールから複雑な技術マニュアルまでさまざまな形式のデータが大量に保存されています。検索拡張生成(RAG)は大規模言語モデル(LLM)を使用して全てのデータから適切な情報を引き出すための技術ですが、RAGを使用する際にデータの取り込みと前処理をどのように行うと効率的なのかを、RAG向けデータ前処理サービスを展開するUnstructuredが解説しました。 Understanding What Matters for LLM Ingestion and Preprocessing – Unstructured https://unstructured.io/blog/understanding-what-matters-for-llm-ingestion-and-preprocessing LLMを最大限に

                            大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?
                          • Appleは大規模言語モデルをiPhone上でローカルに動作させることを目指している

                            Appleの研究者が「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」と題した論文をプレプリントサーバーのarXivに公開しました。この論文では「メモリが限られたデバイス上で大規模言語モデル(LLM)の推論を効果的に行う道を開く解決策」、すなわちiPhoneなどのデバイス上でLLMを動作させるための技術が示されており、Appleは将来的にiPhone上でLLMを動作させることを目指していると考えられます。 [2312.11514] LLM in a flash: Efficient Large Language Model Inference with Limited Memory https://arxiv.org/abs/2312.11514 Paper page - LLM in

                              Appleは大規模言語モデルをiPhone上でローカルに動作させることを目指している
                            • 無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場

                              クラウドベースのデータウェアハウスサービスを展開する企業のSnowflakeが、トップレベルのエンタープライズ向け大規模言語モデル(LLM)として「Snowflake Arctic」をリリースしました。Apacheライセンス バージョン2.0で提供されるオープンなモデルとなっており、無料で商用利用も可能です。 Snowflake Arctic - LLM for Enterprise AI https://www.snowflake.com/blog/arctic-open-efficient-foundation-language-models-snowflake/ Snowflakeの調査では、企業ユーザーはAIを使用して主にデータ支援やコード支援、検索拡張生成(RAG)を行うチャットボットを作成したい場合が多いとのこと。そこで、Snowflakeは「コーディング能力」「SQL生成能力

                                無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場
                              • 日本語大規模言語モデル「Japanese Stable LM 3B-4E1T」「Japanese Stable LM Gamma 7B」を公開しました — Stability AI Japan

                                日本語大規模言語モデル「Japanese Stable LM 3B-4E1T」「Japanese Stable LM Gamma 7B」を公開しました Stability AI Japan は日本語向け大規模言語モデル「Japanese Stable LM 3B-4E1T」及び「Japanese Stable LM Gamma 7B」を公開しました。前者は約30億パラメータ、後者は約70億パラメータのモデルであり、日本語タスクを用いた性能評価において、同等サイズのモデルで最高水準の性能を発揮しています。モデルはすべて商用利用可能な Apache 2.0 ライセンスにて公開しています。 今回公開したモデルは以下の通りです。 30億パラメータの汎用言語モデル: Japanese Stable LM 3B-4E1T Base 30億パラメータの指示応答言語モデル: Japanese Stable

                                  日本語大規模言語モデル「Japanese Stable LM 3B-4E1T」「Japanese Stable LM Gamma 7B」を公開しました — Stability AI Japan
                                • アメリカ人に人気のアジア言語トップ5:日本語からタイ語までの魅力と理由

                                  タグ 10ドル以下 注目銘柄10ドル以下の米国個別株20232023年 税率20242024年2024年ベストLEDマスク20ドル以下の小型個別株24hours market list24時間取引25%UP401k401K40代50代50代 趣味50代おひとりさま50代でもあきらめない50代の達成感5月FOMC60000ppm70%上昇予測ACLXAIAI 英語学習AIチャットAI関連株AI搭載Allure 受賞AmazonAmazon Prime dayAMCAPPLAPRが上がって困る人はAPRレートとは「サヨウナラ」の始め方おいしいお寿司おいしい料理おうちでダイエットおすすめ スムージーおススメおススメ本お茶漬けお土産お尻お得な買い物かかと つるつるかかと ひび割れかかと ガサガサかかとクリームかかとケアかかと保湿かぶれかまってちゃんかゆみがんばり屋さんのこころのトリセツささやかなプ

                                    アメリカ人に人気のアジア言語トップ5:日本語からタイ語までの魅力と理由
                                  • 人間の好みを対話で引き出す言語モデル「GATE」 米MITが開発

                                    このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 米マサチューセッツ工科大学(MIT)などに所属する研究者らが発表した論文「Eliciting Human Preferences with Language Models」は、人間の好みを対話で引き出す言語モデルを提案した研究報告である。ユーザーはモデルの自然言語による質問に自由形式で対話することで、自分の好みを引き出すことができる。 従来、言語モデルに対して特定のタスクを実行させるためには、ラベル付けされた例や自然言語による指示を用いるのが一般的であった。しかし、例を選択したり指示を書いたりする作業は、一般的でないケースを含むタスクや、は

                                      人間の好みを対話で引き出す言語モデル「GATE」 米MITが開発
                                    • 6万5000人以上の開発者に「好きな言語」「好きなOS」「好きな開発環境」「好きなAI」を聞いた年次調査「2024 Stack Overflow Developer Survey」の結果が公開される

                                      開発者のためのコミュニティ「Stack Overflow」が実施した年次調査「2024 Stack Overflow Developer Survey」の結果が公開されました。6万5000人を超える開発者が、コーディングやAI、使用および学習したいと考えるテクノロジーやツール、職場での体験などについて回答しています。 2024 Stack Overflow Developer Survey https://survey.stackoverflow.co/2024/ まず、回答者の最終学歴は以下の通りで、41%が学士号を、25.6%が修士号を取得しています。Stack Overflowは「開発者の66%が学士または修士の学位を持っているが、学校でコードを学んだ開発者は49%に過ぎない」とも指摘しています。 コードを学習するために最も優先する選択肢を問うた項目では、「その他のオンラインリソース

                                        6万5000人以上の開発者に「好きな言語」「好きなOS」「好きな開発環境」「好きなAI」を聞いた年次調査「2024 Stack Overflow Developer Survey」の結果が公開される
                                      • 新しいPython風プログラミング言語Mojoを試してみた | DevelopersIO

                                        こんにちは。CX事業本部Delivery部のakkyです。 少々旧聞となりますが、今年9月にMojo言語がローカルで実行できるようにリリースされました。 MojoはSwiftの開発者が立ち上げたModular社が開発している新しいプログラミング言語で、Pythonの文法とRustのメモリ安全性を兼ね備えたコンパイラ型プログラミング言語です。 AI開発に使用することが想定されていて、SIMDのファーストクラスサポートなども特徴的です。実際にllama2.mojoというLlama2の実行環境の実装も行われています。 現在はPythonとの完全な互換性はありませんが、Pythonインタプリタを呼び出すことでPythonコード/ライブラリを呼び出すことができ、将来的にはMojo自体がPythonのスーパーセットとなることを目指しているそうです。 10月19日にはMacのApple silicon(

                                          新しいPython風プログラミング言語Mojoを試してみた | DevelopersIO
                                        • Googleがオープンかつ商用利用可能な大規模言語モデル「Gemma」ファミリーにコード補完・生成・命令フォローを強化した「CodeGemma」と効率を最適化した「RecurrentGemma」を追加すると発表

                                          Googleが2月に公開したオープンかつ商用利用可能な大規模言語モデル「Gemma」ファミリーに、新たなモデルとして「CodeGemma」と「RecurrentGemma」の2つを追加すると発表しました。 Gemma Family Expands with Models Tailored for Developers and Researchers - Google for Developers https://developers.googleblog.com/2024/04/gemma-family-expands.html Gemmaは同じくGoogleが作成しているAIモデル「Gemini」と同じ技術を使用して作成された軽量かつオープンなAIモデルです。2月にベースとなる「事前学習済みモデル」および対話性能を高めた「インストラクションチューニング済みモデル」がリリースされていました

                                            Googleがオープンかつ商用利用可能な大規模言語モデル「Gemma」ファミリーにコード補完・生成・命令フォローを強化した「CodeGemma」と効率を最適化した「RecurrentGemma」を追加すると発表
                                          • 「お母さんの正体」読んだ : 夫以上に妻がダメな人間として描かれていることで、「育児の過酷さ」で壊れそうになってるのに言語化できない女性の苦しみがより伝わる作品 - 頭の上にミカンをのせる

                                            www.tyoshiki.com の続き。 このお二人のコメントがとても良かったので、「お母さんの正体」買いました。 kerari このマンガ、夫さんを嫌な表情とかさせずに爽やかに描き切っててすごいと思うのよ。人格否定じゃなくて行動だけを批判してる感じ。 kurataikutu これは白ハゲ漫画じゃなくて商業用。あさのゆきこさんずっと読んでるけど、こういう主婦の些細なあるある切り取る視座がホントにうまい。複雑な感情をシンプルに描いて寄りそう解像度の高さが表現者としての強みやで 結論から言うと序盤の話は「釣り」で、最後まで読むと意外に真摯なお話だった 読んでみて思ったこと = 全部読んでみたら決して男叩き一辺倒のマンガではなかった。夫も悪く描かれているけれど、それ以上に妻のほうがダメ人間として描かれている 確かに序盤の夫はダメなムーブをしてる。イラッとするのは間違いない。 少しの藁人形要素を

                                              「お母さんの正体」読んだ : 夫以上に妻がダメな人間として描かれていることで、「育児の過酷さ」で壊れそうになってるのに言語化できない女性の苦しみがより伝わる作品 - 頭の上にミカンをのせる
                                            • Sakana AI、複数の画像を扱える“日本語視覚言語モデル”公開 非英語圏での先駆けに

                                              AIスタートアップのSakana AI(東京都港区)は8月2日、複数の画像について日本語で質疑応答できるAIモデル「Llama-3-EvoVLM-JP-v2」を発表した。このモデルは、同社が提案する生成AIの開発手法「進化的モデルマージ」で開発した視覚言語モデル(VLM)。作成したAIモデルなどはHugging Faceで公開中。 「Llama-3-EvoVLM-JP-v2」の特徴は、複数の画像を扱えること、日本語で応答できることだ。例えばこのAIモデルに、2枚の犬の画像を見せて「それぞれを簡単に説明してください」と質問すると、犬種や身に着けている装飾品など、質問に対する回答を日本語で返してくれる。米Metaが公開しているAIモデル「Llama-3」をベースにしており、同社が過去に公開したAIモデルよりも性能が向上しているという。 これまでも、画像に対する説明や質疑応答のできるVLMが多く

                                                Sakana AI、複数の画像を扱える“日本語視覚言語モデル”公開 非英語圏での先駆けに
                                              • アセンブリ言語(NASM)で FizzBuzz を書く

                                                はじめに こんにちは!めもりーです。 最近 PHP で OS を作ったり,CPU エミュレータを作る機会が多く,何かとアセンブリに触れてきました。 FizzBuzz といえばプログラミング言語を学ぶにあたって,欠かせない一つのアルゴリズムです。 PHP で書くととても簡単に以下のように表現できます: <?php for ($i = 1; $i < 100; $i++) { if (($i % 15) === 0) { echo "FizzBuzz\n"; } else if (($i % 5) === 0) { echo "Buzz\n"; } else if (($i % 3) === 0) { echo "Fizz\n"; } else { echo "{$i}\n"; } } とても簡単ですね。しかし,アセンブリになるとどうなるでしょうか。相当に難易度が上がります。 アセンブリをやる

                                                  アセンブリ言語(NASM)で FizzBuzz を書く
                                                • 現実は言語に先立つ|山口周

                                                  僕たちは言葉になっていないものを想像するのが苦手ですね。 例えばインターネット登場以前、何度もアイデアとして検討され、時には商品化もされた「テレビ電話」は、結局のところ社会に浸透することはありませんでした。 この現象については、その後「私たちは電話をする際、むしろ顔が見えないことを望むのだ」といった後付けの分析がなされ、それはそれで当時は説得力があったわけですが、現在の社会を見てみれば「顔が見えるコミュニケーション」は全世界に浸透しており、当時のしたり顔の分析は全くの誤りだったということがわかります。 この事例はいろんなことを考えさせられます。 一つには「経験の悪弊」ということ。例えば、インターネットが普及し、通信回線の速度が上がったことで「ネット回線を使って顔を見ながらコミュニケーションするサービスはどうだろうか」というアイデアが持ち上がった瞬間に、人がどういう反応をするかを考えてみると

                                                    現実は言語に先立つ|山口周
                                                  • AppleがiPhoneやiPadでローカルに動作するオープンソースの言語モデル「OpenELM」をリリース

                                                    Appleの研究チームが、オープンソースの言語モデル「OpenELM(Open-source Efficient Language Models)」を公開しました。公開されたモデルにはAppleデバイスで動作できるように変換するコードも用意されており、「言語モデルをAppleデバイス上でローカルに実行させる」ことが可能になっています。 [2404.14619] OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framework https://arxiv.org/abs/2404.14619 OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framewo

                                                      AppleがiPhoneやiPadでローカルに動作するオープンソースの言語モデル「OpenELM」をリリース
                                                    • この筆者が英語バイリンガルであることの根拠を述べる。ただし法言語学的..

                                                      この筆者が英語バイリンガルであることの根拠を述べる。ただし法言語学的な根拠はなく単なる自分の直感である。 観点は音韻と語・構文。 スタンザ(音韻)英語にはスタンザという韻律がある。文の末尾の韻が揃うとカッコイイというものだ。自分はあまり詳しくはない。 だがたとえばシェイクスピアならABAB CDCD EFEF GGという,四行連×3 + 二行連×1による形式のようなものがある。 漢詩の五言絶句や俳句あるいはラップのようなものだ。詳しい人はむしろ教えてほしい。 韻を踏むと麻雀で和了したときのように気持ちがいいし,文がシピッと引き締まり,正統性が出る。 元増田の文は「AAA BBB CC DD XY EE」というスタンザが含まれる。三行連×2 + 一行×2 + 二行連×3だろうか。 これでソネット(14行詩)と呼ばれるものになる。それを見てみよう。 XYは特にスタンザではない。 AAAブクマカ

                                                        この筆者が英語バイリンガルであることの根拠を述べる。ただし法言語学的..
                                                      • 本番環境における等価比較を活用した言語リプレイス - ZOZO TECH BLOG

                                                        はじめに こんにちは。基幹システム本部・物流開発部の上原です。昨年度に中途入社しまして、現在はZOZO基幹システムのリプレイスを担当しています。前職では、SESエンジニアとしてリプレイスプロジェクトに上流工程から参画し、大規模なシステムの言語リプレイスを経験してきました。さて私の紹介はこの辺りにして本題に入ります。 基幹システムリプレイスは既に進行しており、本年度には発送領域の機能を発送マイクロサービスとして切り出してリリースしました。それに続いて、入荷領域の機能をマイクロサービス化ではなくモジュラーモノリスに移行するリプレイスも進んでおり、こちらは細かく区切った単位でリリースをしています。 本記事では、自動テストによる「等価比較」を本番環境で実施しながら言語リプレイスを進めた事例を紹介します。この事例では、「言語間での処理の等価性を保証し、安心・安全にリプレイスをする」ということを目的と

                                                          本番環境における等価比較を活用した言語リプレイス - ZOZO TECH BLOG
                                                        • 大規模言語モデルへの入力プロンプトを意味を保ったまま高度に圧縮する技術「LLMLingua」をMicrosoftが開発

                                                          近年はさまざまな大規模言語モデルが台頭し、入力するプロンプトを工夫することで高精度な回答を得る方法も数多く生み出されています。しかし、入力プロンプトがあまりにも長くなりすぎると、チャットウィンドウの上限を超えてしまったり、APIのコストが増大してしまったりするデメリットも生じます。そこでMicrosoft Researchの研究チームは、意味を保ったまま入力プロンプトを圧縮する新たな技術「LLMLingua」を開発しました。 LLMLingua | Designing a Language for LLMs via Prompt Compression https://llmlingua.com/ LLMLingua - Microsoft Research https://www.microsoft.com/en-us/research/project/llmlingua/ LLMLin

                                                            大規模言語モデルへの入力プロンプトを意味を保ったまま高度に圧縮する技術「LLMLingua」をMicrosoftが開発
                                                          • 日本社会は「全身全霊」を信仰しすぎている?「兼業」を経験した文芸評論家・三宅香帆と「ゆる言語学ラジオ」水野太貴が語る働き方 - 集英社新書プラス

                                                            日本社会は「全身全霊」を信仰しすぎている?「兼業」を経験した文芸評論家・三宅香帆と「ゆる言語学ラジオ」水野太貴が語る働き方 「大人になってから、仕事に追われて、読書や趣味が楽しめなくなった」という悩みを抱えてる人は少なくはないのではないか。かつて自らもこの悩みにぶちあたった、文芸批評家の三宅香帆氏は、労働と読書の歴史をひもときながらその根源を新刊『なぜ働いていると本が読めなくなるのか』で分析した。 本書で提起されている「全身全霊で働く」という労働観の問題をめぐって、三宅氏と人気YouTube番組「ゆる言語学ラジオ」の水野太貴氏が対談。会社員の傍ら執筆活動をしていた三宅氏と、編集者をしながらYouTuberとしても活躍する水野氏が、現代の「働き方」について考える。 『なぜ働いていると本が読めなくなるのか』(集英社新書) 『なぜ働いていると本が読めなくなるのか』は半身で書いた? 水野 『なぜ働

                                                              日本社会は「全身全霊」を信仰しすぎている?「兼業」を経験した文芸評論家・三宅香帆と「ゆる言語学ラジオ」水野太貴が語る働き方 - 集英社新書プラス
                                                            • 独自の日本語LLM(大規模言語モデル)のバージョン2を一般公開 ―32,000トークン対応の商用利用可能なチャットモデルを提供―

                                                              株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、70億パラメータ・32,000トークン対応の日本語LLM(Large Language Model、大規模言語モデル)を公開したことをお知らせいたします。 当社はかねてより日本語LLMの開発に取り組んでおり、2023年5月には国内の自然言語処理技術の発展への寄与を目的とし、「CyberAgentLM」を一般公開しました。その後もLLMに関する研究開発を続け様々なモデルを開発するとともに、当社が提供する「極予測AI」をはじめとするサービスにおいて活用を進めております。

                                                                独自の日本語LLM(大規模言語モデル)のバージョン2を一般公開 ―32,000トークン対応の商用利用可能なチャットモデルを提供―
                                                              • NEC、世界トップレベル性能の高速な大規模言語モデル (LLM) cotomi Pro / cotomi Light を開発

                                                                NECは、LLM(Large Language Model:大規模言語モデル)「cotomi(注1)」のラインアップ拡充のため、学習データやアーキテクチャを刷新した「cotomi Pro」「cotomi Light」を開発しました。 昨今の生成AIの急速な発展に伴い、様々な企業や公共機関が、LLMを活用した業務変革の検討・検証を進めています。具体的な活用シーンが見えてくる中で、導入・運用に際してレスポンスタイム、業務データ連携や情報漏洩・脆弱性等のセキュリティ面など、お客様ニーズにあったモデル・形態での提供が求められています。 NECは、高速性と高性能の両立がお客様の課題解決に必須と考え、LLMのラインアップを拡充しました。今回開発した「cotomi Pro」「cotomi Light」は、グローバルのLLMと同等の高い性能を、十数倍の速度で実現する高速・高性能なモデルです。一般的に、LL

                                                                  NEC、世界トップレベル性能の高速な大規模言語モデル (LLM) cotomi Pro / cotomi Light を開発
                                                                • 人気ジャンルの開発を通してC言語を楽しく学べる! 「ゲーム開発で学ぶC言語入門」3月7日発売 動作を確認しながら学べる160以上の無償サンプルを提供

                                                                    人気ジャンルの開発を通してC言語を楽しく学べる! 「ゲーム開発で学ぶC言語入門」3月7日発売 動作を確認しながら学べる160以上の無償サンプルを提供
                                                                  • マネーフォワード、大規模言語モデル「houou」公開

                                                                      マネーフォワード、大規模言語モデル「houou」公開
                                                                    • 「文学を読んで内容は理解できたとして、感性に響いたりはほとんどしない」それでも“言語学”をテーマにしたPodcastを大成功させた理由【『奇奇怪怪』×『ゆる言語学ラジオ』】 | 集英社オンライン | ニュースを本気で噛み砕け

                                                                      「文学を読んで内容は理解できたとして、感性に響いたりはほとんどしない」それでも“言語学”をテーマにしたPodcastを大成功させた理由【『奇奇怪怪』×『ゆる言語学ラジオ』】 SpotifyやApple Musicといった音楽ストリーミングサービスの普及とともに、再びブームとなったPodcast。そんなPodcastブームを牽引してきたのが、映画や本をはじめとしたポップカルチャーをトラッシュ・トークで展開する『奇奇怪怪』と、かたいイメージがある言語学を雑談形式でゆるく紹介する『ゆる言語学ラジオ』。それぞれの番組ホストである玉置周啓氏と水野太貴氏の初顔合わせ対談が実現。前編では、それぞれ「相方としゃべる」という形式を選んだ理由から、番組の熱量の作り方までを語る。

                                                                        「文学を読んで内容は理解できたとして、感性に響いたりはほとんどしない」それでも“言語学”をテーマにしたPodcastを大成功させた理由【『奇奇怪怪』×『ゆる言語学ラジオ』】 | 集英社オンライン | ニュースを本気で噛み砕け
                                                                      • Go言語ビギナーのCREが、Mackerelの途切れ監視プラグインを開発して正式リリースした話 - Hatena Developer Blog

                                                                        こんにちは、Mackerel CREの id:kmuto です。 9月25日に、Mackerelのエージェント用チェックプラグイン「check-mackerel-metric」をリリースしました。 github.com このプラグインは、クラウドインテグレーションを利用した場合など一部標準の機能ではできない、ホストメトリックの途切れ監視を実現するものです。たとえばcheck-mackerel-metric -H <hostId> -n "custom.ecs.running_task.batch-cluster.count -w 30 -c 60という指定をしておくと、ホストID <hostId>のメトリックcustom.ecs.running_task.batch-cluster.countについて、現在から30分前までの間に何も投稿されていなければWARNING、60分前までの間に何も

                                                                          Go言語ビギナーのCREが、Mackerelの途切れ監視プラグインを開発して正式リリースした話 - Hatena Developer Blog
                                                                        • Python言語による実務で役に立つ100の最適化問題

                                                                          最適化問題を100以上集めて,Python言語を用いた実用的な解法を紹介しています.

                                                                            Python言語による実務で役に立つ100の最適化問題
                                                                          • 何歳でも習得可能? 第3、第4言語を学ぶ脳の部位は、母語と同じ:朝日新聞デジタル

                                                                            第3、第4言語を習得する際に使われる脳の部位を特定したと、東京大などのチームが発表した。母語の習得に関わるのと同じ部位といい、チームは「これまでの常識を覆す結果。何歳になっても、子どもと同じようなやり方で新しい言語を習得することは可能だ」と説明する。 今回の結果は、大人が外国語を学ぶ上でのヒントにもなるかもしれない。 チームは、母語が日本語で、英語の習得経験がある14~26歳の男女31人に、カザフ語を学習してもらう実験をした。31人のうち約半数は、スペイン語を第3言語として学んでいる。カザフ語は、カザフスタンなどで使われている言語で、参加者が触れたのは今回が初めてという。 実験は、生まれた子どもが自然に言葉を覚える「自然習得」に近い状況を再現する形で進めた。文法のルールを教えず、複雑な構造の文章を繰り返し聞かせた後、文法的に正しいか間違っているかを画面に示した。 その後、示した文章の文法的

                                                                              何歳でも習得可能? 第3、第4言語を学ぶ脳の部位は、母語と同じ:朝日新聞デジタル
                                                                            • マネーフォワード、大規模言語モデル「houou」公開 理研との共同研究 日本語の指示データ2900件を追加学習に利用

                                                                              マネーフォワードは12月6日、理化学研究所(理研)と共同開発した大規模言語モデル(LLM)「houou」を公開した。出力精度を上げるため、日本語の指示データ(インストラクションデータ)を追加学習に活用した点が特徴という。ライセンスは「LLAMA 2 Community License」に準拠しており、研究や商業目的で利用できる。 特定分野に特化したAIモデルで精度の高い出力結果を得るには、LLMの追加学習が必要になる。今回マネーフォワードは、タスクとそれに対する出力の指示(インストラクション)のデータセットを学習させる方法「インストラクションチューニング」を採用。rinnaが開発したAIモデル「Youri7B」に対して、理研と共同作成した日本語のインストラクションデータ2903件を追加学習させることで、精度の向上を図ったという。 マネーフォワードは「当社でチューニングを行ったモデル『hou

                                                                                マネーフォワード、大規模言語モデル「houou」公開 理研との共同研究 日本語の指示データ2900件を追加学習に利用
                                                                              • プログラミング言語のBASICが60周年を迎える

                                                                                1964年5月1日に登場したプログラミング言語のひとつ「BASIC」が2024年に生誕60周年を迎えました。 The BASIC programming language turns 60 | Ars Technica https://arstechnica.com/gadgets/2024/05/the-basic-programming-language-turns-60/ BASICは、ダートマス大学の数学者だったジョン・G・ケメニーとトーマス・E・カーツによって生み出されたプログラミング言語です。 BASIC以前に存在したFortran、ALGOL、COBOLといったプログラミング言語は複雑で、主にコンピューターの専門家が使用していました。ケメニーとカーツはアマチュアでもコンピューターを使えるようにする必要性を感じ、そのためにユーザーフレンドリーな言語の開発に着手。1963年には初

                                                                                  プログラミング言語のBASICが60周年を迎える
                                                                                • 機械学習モデルのA/BテストをしやすくするGo言語のAPI設計 - エムスリーテックブログ

                                                                                  こちらはエムスリー Advent Calendar 2023 11日目の記事です。 DALL-Eでサムネ作るの楽勝だぜとなりそうでならない Overview A/Bテストをしまくっている、機械学習エンジニアの農見(@rookzeno)です。皆さんA/Bテストをしてますでしょうか。エムスリーでは色々な施策の効果を見るために沢山のA/Bテストをしています。そのためA/Bテストを簡易にできるような設計を作ることも大事なことです。 AI・機械学習チームには、Goで書かれた機械学習関連の機能を各サービスに提供するAPIサーバがあり、こちらのYAMLファイルを設定するだけでA/Bテストが出来るようにしました。 rules: - name: modelA random_seed: 42 threshold: 50 ctrl: weight: 0 test: weight: 1 - name: model

                                                                                    機械学習モデルのA/BテストをしやすくするGo言語のAPI設計 - エムスリーテックブログ