サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ChatGPT
note.com/asahi_ictrad
こんにちは。メディア研究開発センターの太田です。 今回は、スポーツ観戦にまつわるジンクスにデータで向き合おうと思います。 [はじめに] 見ていると負けるから見ない贔屓のチームは自分が見ていると負ける気がする—— こんな感覚に覚えのある人は少なくないのではないでしょうか。中には、願掛けとして大事な試合は見ないという選択をする人もいるとか。 これ以上ジンクスに振り回されないために、データで解き明かしましょう。あのチームは本当に「私が見ていると負ける」のでしょうか。 [準備] ちょうどいいデータがあったまずはデータを用意します。 チームの勝敗は公式記録を使うとして、観戦有無はどうやったらわかるのでしょうか? ——ありました。 こんなこともあろうかとプライベートで長年つけている"カレンダー日記"です。Googleカレンダーに自分の行動を手入力で記録しています。この"カレンダー日記"から、観戦にあた
はじめにメディア研究開発センターの山崎です。 毎日いろいろ移動しているけれど、気づくと忘れてしまいがち。自分の行動を記録しておきたいと思い、Googleマップのタイムラインを活用した日記自動生成に挑戦してみました。Googleマップのタイムライン(Location History)には細かなログが残っているので、これを材料に生成AIで日記っぽくまとめる仕組みをPythonで作ってみました。 Googleタイムラインデータの取得使用するデータはGoogleマップアプリに記録されているGoogleタイムラインデータです。端末内に保存する仕様になっており、どうやらPCからはダウンロードできなくなりました。スマホのGoogleマップアプリの「設定」からダウンロードして、PCへ転送できます。 ダウンロード手順とデータについては以下にて解説されています。 Googleタイムラインデータの内容ダウンロー
はじめにはじめまして、メディア研究開発センター(M研)の酒井眞です。 キャリア採用で2025年1月に朝日新聞に入社しM研のメンバーになってから、早いもので8カ月が経ちました。私は主に音声認識の研究開発を担当しています。今回は音声認識の良しあしを定量的に計算するための評価指標についてお話をさせていただければと思います。 音声認識という分野にかぎらず、評価指標は研究視点ではタスク自体の目的を定量的に扱うために設計が必要なものです。評価指標自体の研究もそのテーマを深めていくためにとても重要です。また、開発視点ではサービスで使っているライブラリやAPIについての技術選定における根拠になるものでもあります。 基本的なお話から始めて古典的な論文で提案されている類似のものも紹介します。評価指標の考え方をお伝えできれば嬉しいです。 前提知識と実験設定について音声認識というタスクを一言でいうと「音声データを
こんにちは。メディア研究開発センターの川畑です。 今回のテックブログではin-context learningの性能を推論時間を利用することで伸ばすことができるか調査した結果を共有します。 大規模言語モデル (LLM) が推論時に与えられるいくつかの事例 (few-shot examples) を用いて推論することをin-context learning (ICL) と呼びますが、ICLの性能はLLMに与える例の構成にセンシティブであることが知られています [1]。良い事例集合を構成できればICLによる推論の性能は高く出る一方、悪い事例集合ではICLの性能は低く出てしまいます。さらにこの事例集合は推論対象の個別のデータに対して類似度が高い事例集合を選択するなどして動的に構築することで良い結果が得られることも知られています [2]。 それでは、この動的な事例選択にさらに推論時間 (test-
こんにちは、朝日新聞社メディア研究開発センター(通称:M研)の杉野です。登山が趣味でして、日本百名山の制覇を目指しています。休日は山のことばかり考えているわけですが、最近の悩みの種は、どんどん増えていく登山写真の整理です。Googleフォトにアルバムを作っていますが、とあるこだわりのせいで写真の整理がなかなか進みません。 そこで今回は、そんな悩みを題材として、今流行りのCursorに慣れる練習がてら作成したツールについて紹介します。 写真に花の名前を入れたい写真整理が進まない原因は「高山植物の名前を写真に追加したい、けど面倒」ということです。 山のガイドさんの説明を聞き、花を愛でながら登るのは登山の醍醐味の1つです。しかしせっかく花の名前を聞いても、下山する頃には忘れてしまうことがしばしば。写真を撮るだけでは記録できないのが問題です。下山後にGoogleレンズで調べれば花の名前はわかるので
こんにちは。メディア研究開発センター(M研)の田口です。 テックブログ執筆の順番が回ってきました。前回自分が書いたのは以下の記事です。 業務では変わらず「Typoless」という校正支援AIサービスの開発に関わっているため、前回のタイポ修正ベンチマークの2025年版も一案かと思いましたが、以前読んで気になった論文を日本語タスクで評価するという内容にします。では本題へ。 Many-Shot In-Context LearningについてLLMを使う際には様々なプロンプトの書き方があります。例えば、指示と処理対象となるテキストだけを入力する形式。お手本を提示しているわけではないので、Zero-Shotと呼ばれたりもします。 以下の文章を要約して。 {要約対象のテキスト}また、お手本となる事例を提示した上でLLMに生成をさせるFew-Shot(下記の場合は1-Shot)というアプローチがあります
こんにちは、メディア研究開発センターの植木です。本記事では、RAGアプリケーションの性能評価ツールとして普及しつつあるPythonライブラリ「Ragas」の概要に触れたのち、日本語文書を用いる際に起きる問題とその回避方法について説明します。 Ragasとは?RAGアプリケーションの性能評価を主な目的としたPythonライブラリです。LangChainとの相性がよく、RAG用のQAテストセット生成から性能評価まで一貫して実施できます。 Ragasにできること文書データからのQAテストセット自動生成 手元の文書(例:社内マニュアル、技術ドキュメントなど)から、自動で質問・回答ペア(QAテストセット)を生成できます。 RAGアプリケーションの性能評価 QAテストセットを用いて、RAGアプリケーションの「検索精度」「回答の正確性」などを評価できます。 RagasにできないことRAGアプリケーション
はじめに メディア研究開発センターの石井です。 データジャーナリズムのためのデータ分析、文章校正AI Typolessの開発などを担当しています。 あと数ヶ月で、また汗が止まらない季節がやってきそうですね。 日本の四季は素晴らしいですが、やっぱり夏は暑いし冬は寒い。 常に20℃で暮らしたい! 夏は北海道、冬は沖縄など、季節によって移動し続ければ、一年中快適な気温で過ごし続けることができるでしょうか? 今回は、日本の平年気温のデータを使って、日本全国適温マップを作ってみました! マップ作成までの流れまずは、日本全国の平年気温データをダウンロードします。 そこから、月ごとに適温(ここでは平年気温20℃)になる箇所を探します。 最後に、選んだ地点から全国マップを作ります。 今回扱うのは気温のデータですが、「位置」に紐づくものなので、ここでは緯度経度を含むGIS※データを扱うことになります。 ※G
メディア研究開発センターの山本剛史です。最近、AIエージェントが大きな話題を集めています。私も話題のAIエディタ「Cursor」を試してみたところ、自分がよく利用しているGoogle Apps Scriptでは非常に高精度なスクリプトを生成してくれて驚きました。 そこで、Google Apps Script (GAS) でのプログラミングに焦点を当て、その使用感や具体的な成果について共有したいと思います。 AIコーディングがどんどん普及2025年に入って、AIエージェントの話題が毎日のように取り上げられています。その中でもAIコーディングが急速に普及している印象を実感しています。 以前はAIによるコーディングは補助的な利用が中心でした。しかし、最近はCursorやDevinなどの登場によって、AIエージェントにコーディングや修正まで大きく権限移譲するユースケースが増えています。 中にはAI
いつもM研テックブログをご覧いただきまして、ありがとうございます。朝日新聞社メディア研究開発センター(M研)の田森です。 さて、M研では研究用のGPU搭載サーバーをはじめとして、何台かのオンプレサーバーやNASが存在します。 見えなくなるまで続く(うそ)弊社サーバールーム結構台数があるので、それなりの管理が必要なのですが、中でも困っているのは 各ストレージはどれくらい使われているのか? GPUはどのサーバーででどのくらい動いているのか? がなかなか分かりづらい。これらの項目を含めて、サーバーの状況を包括的に監視できるものを探していたのですが、 mackerel というサービスで実現できそうなことがわかり、試してみました。 Disclaimer当記事の内容については、mackerelを運営されている株式会社はてな様の保証や推薦を得たものではなく、弊社で独自に実施した内容をまとめたものです。
いつもM研テックブログをご覧いただきまして、ありがとうございます。朝日新聞社メディア研究開発センター(M研)の田森です。 このテックブログも全体で100号目、私も勤続20年目となりました。弊社でR&D活動を初めてちょうど10年、私にとっては切りのいい数字が並びます。いまではこのテックブログも、弊社のR&Dもいろいろと成果も出てきています。振り返ると、まさに「connecting the dots」の世界だと思っています。 今後も、メディアにおけるR&Dの活動とはどうあるべきか、メディア内のR&Dに携わる技術者はいかにあるべきか、M研のメンバーや弊社に所属するすべての技術者と一緒に考え続けて行きたいと思います。引き続きよろしくお願いします。 さて、現在の私の立場としては7〜8割を管理業務に当てつつ、残りの時間で実際に手を動かしたり、M研メンバーと一緒に方針を考えるような時間を送っています。1
こんにちは。メディア研究開発センターの山野です。私は普段は音声処理や自然言語処理やそれらの技術を使ったプロダクト開発などに従事しています。 さて今回は朝日新聞記事データを使ったニューラル仮名漢字変換について簡易な実験をしたのでその結果を共有します。 はじめに多くの問題を解くことができるLLMですが、ひらがな列Xをかな漢字混じり文Yへ変換する仮名漢字変換については、単語の読み方とその表記の関連性を学習する必要があり、現時点(2024年7月8日)ではLLMでもうまく解くことができません。 実はほとんど全てのオープンな日本語LLMはかな漢字変換が全く出来ません。 出典: https://zenn.dev/azookey/articles/ea15bacf81521e(ちなみに私はiPhoneのキーボードをazooKeyに変更してしばらく経ちますがとても使い勝手/心地が良いのでオススメです。) そ
現在対応している言語はPython・Java・TypeScript・.NETです。この記事のサンプルコードは全てPythonになります。 ちなみにYOLOでは、メイン機能である音声認識まわりをLambdaに移行するタイミングでPowertoolsを導入しました(2023年3月、下記記事もご覧ください)。 導入して感じたメリットはざっとこんな感じでしょうか。 構造化ログが簡単に生成される バリデーションを自前で実装しなくて良くなる API Gatewayとの統合がいろいろ楽になる それぞれ後ほど紹介したいと思いますが、とにかくよしなにやってくれるのです。 インストール方法と使い方導入はとても簡単で、Lambdaレイヤーかpipから使えます。 AWSコンソールでサクッと使う「AWSレイヤー」にPowertoolsのレイヤーが用意されています。使いたいLambda関数でこのレイヤー追加するだけで
こんにちは。メディア研究開発センター(M研)の新美です。 最近イベント用のグッズでTシャツを購入しましたが、肝心のイベントのチケットが外れて日の目を浴びられないことが確定したため少しやさぐれております。 さて、そんなやさぐれ女が今回ご紹介するのは署名付きURLを用いた大容量ファイルのアップロード方法についてです。私が開発に携わっている社内向け文字起こしサービス「YOLO」では、長時間の録音ファイルや動画ファイルなど大容量のファイルのアップロードが求められるようになってきました。 そこで従来採用していたアップロード方法を見直し、より大容量のファイルを高速にアップロードできる手法を検討しました。詳細な実装方法や速度比較の結果について、以下で詳しく解説していきます。 YOLOについての詳細は下記の記事をご覧ください。 従来のアップロード方法現行のYOLOでは、フロントエンドから実体ファイルを含ん
こんにちは、メディア研究開発センターの山野陽祐です。 先日、朝日新聞の記者に特化したWhisper (音声認識モデル)を構築し、3月末から社内向けツール「YOLO」にて運用を開始しました。それに至るまでの道のりをこちらの記事でご紹介します。 なお、学習データとして活用するファイルは、社内会議や公の記者会見とし、個人情報やセンシティブな情報が含まれるファイルは使用しておりません。 データ「YOLO」は音声や動画の文字起こしをする社内向けのサービスで、約2年前にリリースしました。この間にアップロードされた音声ファイルや動画ファイルは数千時間におよび、そのうち学習に使えるデータも多くあります。 ここでは、YOLOで蓄積されたデータを紹介し、続いて学習データや評価データについても述べます。 YOLOデータアップロード時、ユーザーにファイルの"ジャンル"を指定してもらうようなサービス設計をしています
こんにちは。メディア研究開発センター(M研)の田口です。 最近、大規模言語モデル(以下、LLM)に関するニュースが毎日のように出ています。直近約1ヶ月の間にもOpenAIのAPIのアップデートが発表されたり、日本語のLLMが公開されたりしました。 少し前(といっても4月末)に「ChatGPT/OpenAI API/LLM活用事例~NewsPicksと朝日新聞の合同勉強会を公開」でLTをしました。このときはChatGPTの見出し生成の簡単な性能検証をしただけなので、この記事では最近公開されたLLMモデルの検証をしてみました。 ※この記事では社内データでなく公開データされているデータセットで実験しています LTの資料はこちらになります。 日本語LLMを要約タスクで検証するさっそく本題に入りましょう。今回は5月以降に発表された以下の日本語LLMを要約タスクで評価してみようと思います。 cyber
Label StudioはHeartexという会社が提供しているオープンソースのアノテーションツールです。様々な種類のデータ(音声・画像・テキスト・時系列データ…)、幅広いタスクに対応しています。 Label Studioは基本的に無料で使用できます。 機能拡張やサポートが受けられる有償版もあるようですが、個人で使う分には無料機能で十分な印象です。詳しくは下記ページなどをご参照ください。 なお、今回は他ツールとの比較などは行っていませんので悪しからず…。 というのも、筆者がアノテーションツールとしてLabel Studioを使い始めたのに、特別な理由などはありません。たまたまです。 とはいえ、環境構築が難しいツールも多い中(お恥ずかしいことに他のツールでうまくいかなかった経験あり)、これまで特に不自由なく利用できてきたので、これも何かの縁ということで今もお世話になっています。 何ができる?
メディア研究開発センターの新妻です。 ※本記事はQiitaの朝日新聞社アドベントカレンダー(6日目)にも参加しています。 字名(あざな)はその土地の地形や地質を表している?地名はその土地の特徴が由来している、なんて話を聞いたことがないでしょうか。例えば、台地に位置しているような場所には、東京都文京区の「目白台」や奈良県生駒市の「白庭台」といった◯◯台といった地名がついていたりします。そんな話を聞くと、なんとなーく日本地図で地名の分布を見たくなりませんか?自分は見たくなってしまったんで、サクッと作ってあれこれ見てみました。 その結果、こんな感じのマップができました。 ©︎mapbox ©︎OpenStreetMapマップ作成に利用したデータは、Geolonia 住所データです。 本データは、Geoloniaによって国土交通省位置参照情報サービスをベースに作成されたCC BY 4.0で提供され
朝日新聞社の研究開発チーム(通称「M研」)です。このブログでは、社内の技術者たちが、日々のお仕事や研究開発しているテーマ、実験的な「やってみた」記録などを、時に真面目に、時にゆるっと発信していきます。
はじめにこんにちは。 メディアラボチームで新規事業に取り組んでいる市野です。 PCを利用する上で避けられないウィンドウ操作 (アプリケーションを開いたときに表示されるあれです) 。表示されたあとに、適切なサイズに変更したり、他のウィンドウと被らないように位置を変更することも多いのではないでしょうか。 これって地味に時間がかかる細かい作業ですよね、、、 もし、マウスを使わずにキーボードショートカットだけで適切な位置・サイズに変更できたら、、、 もし、なんならキーボードすらも使わず、表示されているウィンドウ群を自動で適切なサイズ・位置に変更できたら、、、 実はそのようなことを可能にしてくれるツールが開発・公開されています。自称効率厨の私としては、頻繁に行うウィンドウ操作の効率化は見逃せません。大きな可能性を秘めている "ウィンドウマネージャー" について今回はご紹介します。 本記事では私が主に
メディアデザインセンターの山本剛史と申します。普段はWebメディアのアクセス解析や、ABテストによる改善検証など、サイトグロースを担当しています。 朝日新聞社のWebメディアとしては朝日新聞デジタルが有名ですが、それ以外にも多様なWebメディアを運営しています。そうした多様なメディアの運営を行っているのがメディアデザインセンターです。 今回、メディアのアクセス解析で利用しているGoogle Analytics(GA)のGA4移行に伴い、タグ管理ツールのGoogle Tag Manager(GTM)でも移行作業が発生したため、GTMで設定したタグ情報の収集ツールを開発したので紹介します。 Google Analytics(GA)でアクセス解析運営メディアではアクセス解析ソフトのGoogle Analytics(GA)を使い、日々サイトを分析しています。GAはアクセス解析ソフトとしては最も利用
メディア研究開発センターの倉井です。 最近Tesseractを使ってOCRをしたいことがあったのですが、新たにフォントを学習させたい場合など、いくつか初見では難しい設定をする必要があったので、備忘録的に残したいと思います。 合わせて元の画像のノイズをopenCVを使って取り除き、綺麗にする方法も共有したいと思います。 なお、検証に当たって大いに参考にさせていただいたWebページのリンクを最後にまとめています。 TesseractをインストールするTesseractは記事執筆時点(2022.05.31)で、v5.1.0まで公開されています。 5系ではモデルのfinetuneをしたい場合、文字の写っている画像とその文字のアノテーションデータが必要となり(筆者調べ)、その準備が大変です。 一方で4系では学習させたい文字列とフォントさえ準備すれば、学習用のデータを自動で生成してくれるので、追加学習
メディア研究開発センター(M研)の田森です。 今回は、M研で開発中の校正支援ツール「TyE(たい)」の紹介をしたいと思います。ネーミングは先に開発した「TSUNA(つな)」の兄弟分、ということでお察しください。 TyEとはTyEができることはシンプルで、日本語で書かれた文の「誤っていそうな箇所」を指摘します。APIで提供しているので、様々なアプリケーションやサービスに適用できます。下記の例は、作成中のデモ画面でのチェック結果です。 TyEによる検知結果TyEの特徴を以下にまとめました。 検知のためのルール辞書を必要としません。 日本語のルールから逸脱している部分を自動的に検知します。 助詞や「同音異義語」といった、ルールにしづらいものも検知できます。 「文字の追加が必要」「誤った文字が入力されている」「余計な文字がある」ことを検知できます。 上記の例では、それぞれ赤、緑、青で示しています。
朝日新聞社デジタル機動報道部でデータジャーナリズムの取り組みに携わっている山崎です。もともとエンジニアとして入社した背景を武器に、データの分析やそのビジュアライゼーションを記事の執筆に活かしています。 今回はちょっとこちらのNoteにお邪魔して、4月に朝日新聞デジタルで配信がスタートした、オープンデータ分析による大型連載(←自分で言うな)「みえない交差点」のテクニカルな部分を紹介したいと思います。 1.そもそもどんな連載?分析の元データとなったのは、警察庁がオープンデータとして公開している「交通事故統計情報のオープンデータ」です。 警察では、事故が起こった際に、天気や場所、日時、当事者の年代など、どのような人身事故だったかを詳細に記録しているのですが、個人情報などをのぞいた一部のデータを2019年分から公開しています。 このオープンデータに含まれる緯度・経度を活用して、事故が多発している場
はじめに こんにちは、メディア研究開発センターの浦川です。 この記事では、本日12月21日から東京・六本木にあります21_21 DESIGN SIGHTで開催される「2121年 Futures In-Sight」展にて展示中の作品「Imaginary Dictionary -未来を編む辞書」についてご紹介します。 この作品は、デジタル技術を生かしたアート作品の制作などを行うQosmo, Incとの共作による「未来を編む=未来に存在している(かもしれない)語の収められた辞書をつくる」といったプロジェクトです。 はたして、どういった過程を経て「未来を編む辞書」がつくられているのか。今回はその裏側についてお話ししてまいります。 作品について 作品(撮影:Qosmo, Inc.)作品(撮影:Qosmo, Inc.)展示風景(撮影:吉村昌也) この作品は、未来に存在しているかもしれない新しい言葉や、
一方、私たちのチームで使っているprodigyをがっつり紹介した記事はあまり見かけません。有償のハードルはやはり高いのか、日本ではあまり浸透していないのかわかりませんが、1回購入でずっと使えて※、長い目で見ればコスパは良いという実感もあるので、この場で紹介してみたいと思います。 ※無料アップグレードは12ヶ月、など制限もありますので詳細は公式サイトを確認ください。 prodigyとは prodigyを提供しているのは、Explosionというソフトウェア会社です。同社が提供するspaCyという自然言語処理用ライブラリなら聞き覚えがあるという方も多いかもしれません。 prodigyで行えるアノテーションタスクや料金など、詳細は以下の通りです。 アプリタイプ: webアプリケーション 入出力データ形式: jsonl(ndjson) 料金(1回購入):personal:$390 company:
今回のテックブログは、BERTの系列ラベリングをサンプルに、Inferentia、GPU、CPUの速度・コストを比較した結果を紹介します。Inf1インスタンス上でのモデルコンパイル・推論の手順についてのお役立ちチュートリアルも必見です。 AWS Inf1とは こんにちは。メディア研究開発センター (通称M研) の田口です。今回はAWSのInf1インスタンス上でBERTモデルを動かす際の流れをご紹介したいと思います。 さて、みなさんは機械学習モデルの推論をどこで走らせていますか? BERTのようなサイズの大きいモデルを走らせる場合、コスト上問題なければTPU・GPUを使いたいですよね。とはいえ、できるだけコストは抑えたいのでCPUを選択すると「推論速度が…」という悩みがでてきます。そこでM研では、GPU・CPUに代わる選択肢としてInferentiaというチップを搭載したAWS Inf1の検
みなさま、はじめまして。朝日新聞社の田森と申します。私は「メディアラボ」という部署の研究チームで、私含め6名のチーム員とともに朝日新聞社の中にあるリソースを利用した研究開発を日々進めています。今回は、我々が開発した自動要約生成エンジン「TSUNA」と、その開発の裏側をご紹介できればと思います。 なお、今回のエントリのタイトルはTSUNAが実際に出力した見出しです。他にも下記のようなものを出力しました。多少変なものも混じっていますが、それっぽいものは出せているのではないでしょうか。 「メディアラボ」の研究開発 TSUNAとの裏側を紹介 リソースとTSUNAの開発 「メディアラボ」の裏側 私の「メディアラボ」の裏側 リソース研究、私含め6名チーム TSUNAとリソースが結ぶ裏側、私も開発したら... 生成エンジンの裏側とは? 「メディアラボ」開発を日々進む 「メディアラボ」の研究開発 TSUN
「般若心経」をT5(Text-to-Text Transfer Transformer)を使って現代語訳してみた! ICTRADの山野です。 この記事は、 T5という自然言語処理の手法を用いて、 漢文形式の般若心経を現代語訳にチャレンジした、 いわゆる「やってみた」系の記事です。 「漢文」って、書き下しのルールや意味が理解できれば、普段使う日本語の深さも教えてくれるものですが、ちょっととっつきづらいイメージがありますよね。なので技術を使って簡単に現代語訳することができたら、身近に感じられるんじゃないかと思い、まずは「般若心経」でチャレンジしてみました。 あわせて、「朝日新聞ってなんだか堅そう」、「新聞社のエンジニアって普段何してるかわからない」っていう方は、ぜひこの記事を見て「ICTRAD」の研究開発チームが何をやっているかちょっとでもわかってもらえればなと思います! ※すぐに現代語訳の結
このページを最初にブックマークしてみませんか?
『朝日新聞社 メディア研究開発センター|note』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く