yk_uminamiのブックマーク (5,356)

  • 【特集】 約30年でGPUはどのぐらい速くなったの?歴史を振り返りつつぜ~んぶ計算してみた

    【特集】 約30年でGPUはどのぐらい速くなったの?歴史を振り返りつつぜ~んぶ計算してみた
  • 女子ボクシングの件の情報を並べる

    ●イマネ・ケリフ選手(アルジェリア代表)178cm66kg級 ●リオ五輪をみてボクシングを始める。 ●女の子がボクシングなんて、という父親の反対を押し切り2018年から選手へ。2019年時点ではIBA世界選手権33位。 ●2020年IOC東京オリンピックに出場。準々決勝で金メダル選手に敗戦。5位。 ●IBAは東京オリンピックの運営に関わっていない。 ●2022年IBA世界選手権へ出場し銀メダル。アルジェリア初の決勝進出者。 ●2023年3月のIBA世界選手権決勝進出。その前にDNA検査で失格。この結果は2022年の検査と、2023年の検査2回によるものであり性分化疾患の疑いが浮上した。 ●この性別審査は2023年から導入。危険性が伴うスポーツであり他競技より早い決断。スポーツ界には人権的観点で問題視する声も大昔からある。 ●この結果を受けスポーツ仲裁裁判所にケリフともう一人、台湾のリン・ユ

    女子ボクシングの件の情報を並べる
  • AIで人間の生活・常識・行動様式・価値観は大きく変わる Preferred Networks岡野原氏が話すLLMの最前線

    Preferred Networksの岡野原氏が、「LLMの最前線と今後の展望」というテーマで、LLMの現状と今後について話をしました。全2回。 岡野原大輔氏の自己紹介 岡野原大輔氏:今日は、たくさん資料を用意しているので、少し巻きでどんどんいきたいと思います。 さっそく自己紹介をできればと思います。(スライドを示して)私はPreferred Networksの岡野原と申します。西川と一緒に会社を経営し、もう15年ですかね。Preferred Networksという会社としては、今年10周年を迎えました。 私自身は、今、「Twitter(現X)」で@hillbigという名前で、よくいろいろな論文をツイート(ポスト)をしているので、それで知っている方もいるかもしれません。そういった最先端の研究の状況を追いながら自分たちも作って、それを社会実装していく製品、サービスなどを作っていく部分に力を入

    AIで人間の生活・常識・行動様式・価値観は大きく変わる Preferred Networks岡野原氏が話すLLMの最前線
  • 「働きやすさ」だけでは、エンゲージメントは高まらない――人材マネジメントの専門家に聞く、組織力向上のために必要なこと

    PR提供:マイナビ 「働きやすさ」だけでは、エンゲージメントは高まらない――人材マネジメントの専門家に聞く、組織力向上のために必要なこと 急速にビジネス環境が変化する昨今、さらに労働力人口は減少局面を迎え、あらためて従業員のリテンションマネジメントや人材戦略強化の必要性が叫ばれている。こうした働き手=人へ戦略的に投資する「人的資経営」の観点において、従業員と組織のエンゲージメントを高めるための施策にはどんなものがあるのだろうか。 このテーマに詳しい学習院大学経済学部の守島基博教授に、「働きやすさ」と「働きがい」のバランス、働き手と企業とが価値観やパーパスを共有することの重要性、人的資経営時代のコミュニケーションのあり方を再検討することで、働き手の定着や育成にどのような好循環が生まれるかなど、さまざまな観点から詳しくお話を伺った。 守島教授によると、企業は働き手に対してこれまで以上に自己

    「働きやすさ」だけでは、エンゲージメントは高まらない――人材マネジメントの専門家に聞く、組織力向上のために必要なこと
  • 生成AIを低コストで 小規模言語モデル「SLM」参入活発 - 日本経済新聞

    生成AI人工知能)に不可欠な大規模言語モデル(LLM)の開発競争が過熱するなか、よりパラメーター数が小さい「小規模言語モデル(SLM)」が注目されている。運用コストを抑え、機微なデータを扱う分野に適しているためだ。スタートアップによる開発が先行するが、米グーグルなどビッグテックも急速に参入しつつある。LLMを導入している企業の費用は数百万ドル(数億〜十数億円)に上る場合もある。企業はAIの費用

    生成AIを低コストで 小規模言語モデル「SLM」参入活発 - 日本経済新聞
  • LLM for 時系列分析の世界

    以前、【LT大会#7】LLMの活用・機械学習データ分析関係のいろいろな話題にふれようで、時系列基盤モデルについてLTをさせて頂きました。 他発表者のLTも面白く、私自身も時系列基盤モデルについて理解を深める良いきっかけとなりましたが、心残りはLLMを絡めた手法については時間を割けなかったことです。 そこで今回はLLM for 時系列分析に関するアイディアを簡単にまとめてみます。 おことわり 学習目的で調査・作成した内容がベースとなっており、誤りや他に面白い論文・事例がありましたら、教えて頂けますと幸いです。 主に以下Survey論文・Collectionリポジトリで取り上げられている内容の一部を対象としています。より網羅的に知りたい方は下記リソースを直接ご参照ください。 Large Language Models for Time Series: A Survey Position: W

    LLM for 時系列分析の世界
  • 生成 AI 活用事例集

    180 characters lorem ipsum dolor sit amet, consectetur adipiscing elit. Mauris id auctor erat. Mauris cursus pharetra purus, et blandit magna condimentum et felis.

    生成 AI 活用事例集
  • toitta(トイッタ) - ユーザーの声に向き合える発話分析ソリューション

    ユーザーの声を大切にする すべての組織のために。 toitta(トイッタ)は、デザインリサーチ・マーケティングリサーチに携わるチームのために考案された、インタビュー後の発話分析を支援するソリューションです。 リサーチを通してインサイトの発見・仮説の精緻化を実現するまでのプロセスにひそむ課題を、「生成AIを活用した発話の構造データ化」で解決します。 インタビューの録画・音声データをAIで処理し、データを分析しやすい形に整えることで、ハードルの高いインタビュー分析を強力にサポートします。

    toitta(トイッタ) - ユーザーの声に向き合える発話分析ソリューション
  • 19人育てた里親「親のない子はこんな残酷なことになるのか」里親から引き離される晩に小2男の子が言ったこと 「生きるのをやめようと思ったけど、この家があるから生きることにした」

    「障害のある子」だけ預かる里親になったワケ 閑静な住宅街の一角にある、二階建ての一軒家。可憐な花に彩られた玄関周り、あたたかな雰囲気が漂う「坂」と表札がかかるこの家には、「坂」と異なる姓を持つ子どもが5人暮らしている。ここ「坂ファミリーホーム」は、何らかの事情で親と暮らせない子どもが、里親に育まれながら成長していく場所だ。 ※「ファミリーホーム」とは2009年に創設された制度で、養育者の住居で5〜6人の里子を育てる、里親を大きくしたようなもの 私にとっては3年ぶり、そしておそらく6回目となる来訪だった。里親の坂洋子さん(67歳)が、明るい笑顔で迎えてくれる。リビングには家族旅行の集合写真や、それぞれの子の七五三や卒業式などの写真、子どもたちの作品が壁に飾られ、足を踏み入れただけで、愛情に満ち溢れた、あたたかな雰囲気を肌で感じた。 小柄ながら、いつもパワフルな“みんなのお母さん”であ

    19人育てた里親「親のない子はこんな残酷なことになるのか」里親から引き離される晩に小2男の子が言ったこと 「生きるのをやめようと思ったけど、この家があるから生きることにした」
  • DifyとKnowledge bases for Amazon Bedrockを連携させてRAGを構築する - Taste of Tech Topics

    こんにちは。ベランダで育てていたバジルが虫にべられてしまいました。ハヤトです。 しかし植物の生命力というのはすごいもので、残った茎から再び葉っぱが成長してきています。次はぜひ私がべたいものです。 さて、成長著しいといえば生成AIアプリ開発の分野はまさに日進月歩ですが、 なかでも「Dify」は、LLMワークフローが特に便利で、注目度が急上昇中です。 今回はそんなDifyとKnowledge bases for Amazon Bedrockを連携させてRAGを構築してみます。 Difyとは? Knowledge bases for Amazon Bedrockとは? 今回作成するチャットボットについて AWS側の設定手順 ナレッジベースの作成 APIの作成 Lambdaの作成 API Gatewayの作成 Dify側の設定手順 カスタムツールの作成 チャットボットの作成 まとめ Difyと

    DifyとKnowledge bases for Amazon Bedrockを連携させてRAGを構築する - Taste of Tech Topics
  • 2024年最新版:Pythonデータ解析ライブラリ総まとめ - 実践的ガイド - Qiita

    はじめに Pythonのデータ解析エコシステムは日々進化を続けています。2024年現在、効率的なデータ処理、直感的な可視化、高度な機械学習の自動化など、様々な新しいツールが登場しています。記事では、最新のPythonデータ解析ライブラリを紹介し、それぞれの特徴や使用例、実際のユースケース、そして導入方法まで詳しく解説します。 1. データ操作ライブラリ 1.1 Polars: 高速データ処理の新標準 Polarsは、Rustで実装された高速なデータ操作ライブラリです。pandasに似たAPIを持ちながら、大規模データセットでより高速に動作します。 特徴: 高速な処理速度 メモリ効率が良い pandasに似たAPI 使用例: import pandas as pd # サンプルデータを作成 data = { "age": [25, 32, 28, 35, 40, 50], "categor

    2024年最新版:Pythonデータ解析ライブラリ総まとめ - 実践的ガイド - Qiita
  • 世界初、eスポーツ対戦直前の脳波から勝敗と強く関わるパターンを発見・実証~「実力が拮抗した試合」や「番狂わせ」を約80%の精度で予測~ | ニュースリリース | NTT

    ◆試合直前の脳波に勝敗と強く関わるパターンを発見しました。 ◆勝敗予測モデルに試合直前の脳波データを導入することで、従来困難だった「番狂わせ」のような不確定要素の多い試合結果も高精度に予測可能なことを実証しました。 ◆将来的には脳波のパターン分類に基づく個人のメンタルコンディショニングの確立が期待できます。 日電信電話株式会社(社東京都千代田区、代表取締役社長:島田 明、以下「NTT」)は、eスポーツ対戦直前の脳波に勝敗と強く関わるパターンの存在を世界で初めて発見し、この脳波データから直後の試合結果を高精度に予測することに成功しました。 成果は、競技直前の脳に最適な状態が存在することを示すとともに、競技パフォーマンスの予測に脳情報が有効であることを示すものです。将来的に、スポーツ、医療、教育などさまざまな現場で活躍する人々の脳状態の最適化によるパフォーマンス向上や、熟練者の高度なスキ

    世界初、eスポーツ対戦直前の脳波から勝敗と強く関わるパターンを発見・実証~「実力が拮抗した試合」や「番狂わせ」を約80%の精度で予測~ | ニュースリリース | NTT
  • 「AIに仕事を奪われた絵師」な訳だが|走り書き

    「当然の時代の流れだった」と思っているという話。 最初に書いておくとこれはAIに反対する記事ではないので、規制を推奨する内容を期待して開いた人はブラウザバックをお勧めする。 あと推敲全然しないで思いつくままに書いてるから、すごく読みづらい。 それでも良いという人は以下にどうぞ。 2年ちょっとくらい前まで、イラストっていた。 ただし、バリバリ企業と契約とかして1枚10万とか取っているプロイラストレーターではない。 ココナラとかSkebとかSKIMAとか、そういうコミッションサイトでフリゲーやTRPGVtuber用の立ち絵イラストを1枚1万弱で売り捌いている、いわゆる「アマチュア底辺絵師」だった。 (そう呼ばれる層にいた、という意味で「底辺」という言葉をあえて使う) 絵のクオリティは全身立ち絵で1万円ついたらいい方ってくらいの、「X(旧Twitter)でよく見るちょっと絵が上手い人」のラ

  • ELYZA-tasks-100を人間が解くと何点取れるのか?

    と言ってもこの点数が低いのか高いのか分かりませんので、Claude 3.5 Sonnetの点数も見ていきましょう。 Claude 3.5 Sonnetの点数 現時点で最強と名高いClaude 3.5 SonnetにもELYZA-tasks-100を解いてもらいます。 単純に問題文だけを投げる形で、temperatureは0.8にしました。 import json import anthropic from datasets import load_dataset client = anthropic.Anthropic( api_key="APIキー", ) dataset = load_dataset("elyza/ELYZA-tasks-100") test_set = dataset["test"] results = {} for i, example in enumerate(t

    ELYZA-tasks-100を人間が解くと何点取れるのか?
  • 【思考翻訳】単語ごとに担当脳細胞があると判明! - ナゾロジー

    脳細胞ごとに担当する単語がある新たな研究では脳細胞ごとに担当する単語が存在することがしめされました / Credit:Canva . 川勝康弘横浜には明治時代に作られたとされる古い歌があります。 「赤いを履いた女の子、異人さんに連れられて行っちゃった」 横浜市の小学生ならば音楽の授業でこのフレーズを幾度となく歌ったことがあるかもしれません。 この短い1節を分解してみると、そのなかには「赤・・履く・女の子・異人・連れられる・行った」という7つの単語から構成されていることがわかります。 これまでの研究により、私たちの脳内には「意味」や「カテゴリー」に反応する細胞があることが知られています。 たとえば、や長といった特定の物体について聞いた時、脳内では単語そのものの意味に加えて「これは物体だ」として理解するのを助けるためのカテゴリー細胞が活性化するのです。 また、カテゴリー細胞には女の子・

    【思考翻訳】単語ごとに担当脳細胞があると判明! - ナゾロジー
  • ローカルLLMに小説を書いてもらう v2|Kohya S.

    この時はそれぞれ単独のプロンプトで小説家と編集者を演じさせましたが、今回はもうすこしシステマチックに、段階を踏んで小説を生成させてみます。 プロンプトの検討等にはkgmkm氏のリポジトリや記事を参考にさせていただきました。この場を借りてお礼申し上げます。 仕組みを相談するのにClaude (3.5 Sonnet)とやり取りをしていましたので、この記事の草稿も書いてもらいました。所々、なんとなく冗長だったり文体が違ったりしますが、面倒なのでそのままにしてあります(すみません)。 生成スクリプト生成スクリプトとプロンプト定義はgistに置きました。 https://gist.github.com/kohya-ss/68d41a9720bfbdfd87869ec970142f4b 概要近年、大規模言語モデル(LLM)の発展により、AIによる文章生成の可能性が大きく広がっています。今回はローカル環

    ローカルLLMに小説を書いてもらう v2|Kohya S.
  • 軍事研究家・小泉悠氏が「人の脳が戦場になる」解説 「信じない人」が狙われる<認知戦インタビュー詳報>:東京新聞 TOKYO Web

    交流サイト(SNS)の浸透を背景に、戦争は、人々の考え方の主体となる「脳」を巡る争い「認知戦」に発展しつつある。「人の脳が戦場になる」とは、どういうことなのか。ロシア・旧ソ連諸国を専門とする軍事研究家で、安全保障問題に詳しい小泉悠・東京大学先端科学技術研究センター准教授(42)に聞いた。(聞き手・滝沢学) 認知戦 人の脳など「認知領域」を標的にした戦い。世論の誘導や敵対勢力の撹乱を狙う「情報戦」の一つ。マスメディアを通じたプロパガンダ(宣伝)の流布だけでなく、SNSなどで刺激的な情報発信を繰り返し、人の頭の中に直接働きかけて考え方を先鋭化させ、対立をあおって社会を弱体化させる。陸海空や宇宙、サイバー空間と並ぶ6番目の戦闘領域として「認知領域」が捉えられ、各国で研究が進む。日では2022年の防衛白書で初めて「認知戦」の用語が登場した。

    軍事研究家・小泉悠氏が「人の脳が戦場になる」解説 「信じない人」が狙われる<認知戦インタビュー詳報>:東京新聞 TOKYO Web
  • 2023-24年のKaggleコンペから学ぶ、NLPコンペの精度の上げ方

    LLM関係のコンペがかなり多かったですね。 ベースラインノートブック 最近はほとんどのコンペがHuggingfaceのTrainerを使って学習が行われます(テーブルデータにおけるscikit-learnのような立ち位置です)。ChrisのNotebookは非常にシンプルにまとまっているのでぜひ参考にしてください。 分類(+RAG) 回帰、分類 固有表現抽出 NLP・精度上昇で検討すること データを増やす LLMによるデータ生成 + ラベリング(CommonLit2 1st, DAIGT 1st, LLM Sci Exam 5th, PIIDD 1st) LLMによるデータ生成は必ずしも効果があるとは限らない データ生成方法も現状はベストプラクティスはない Mistral, Mixtral系列でデータ生成がよさそうな感じはする なお、LLMがラベル付けできないタスクでは厳しい印象です TT

    2023-24年のKaggleコンペから学ぶ、NLPコンペの精度の上げ方
  • LLMに面倒なことをやらせるソフト「Code Cooker」の紹介

    LLMに面倒なことをやらせたい 面倒なことはChatGPTにやらせようというの著者のからあげです。 書籍では、様々な面倒なことをChatGPTにやらせています。ChatGPT単体(コアの部分)は、基的にテキスト(言葉)を生成することしかできないので、どうやって面倒なことをやらせているかというと、ChatGPTの生成したテキストで、拡張機能を操作することで、実現しています。イメージ的には以下のように、ChatGPTの手足のように拡張機能を使う感じです。拡張機能としては、色々ありますがChatGPTが生成したコードを実行できるAdvanced Data Analysis(Code Interpreter)が重要かつ代表的な機能となります。 面倒なことはChatGPTにやらせよう(講談社)より引用 この機能はChatGPT独自のものだったのですが、最近はGeminiのGoogle AI St

    LLMに面倒なことをやらせるソフト「Code Cooker」の紹介
  • Dify API と GASのカスタム関数を組み合わせてスプレッドシートからLLMを利用する

    この記事では、LLMアプリケーション開発プラットフォームであるDifyとGoogle Apps Script(GAS)のカスタム関数を使って、スプシに記載した画像URLに写っているのがわんこかどうかをDifyを使って自動で判定してみました。 なぜDifyとGASカスタム関数の組み合わせなのか? GASのカスタム関数から直接OpenAIなどのAPIを叩くのが実装としては一番早いのですが、RAGを使いたい、複数のGASから呼び出したい、GAS以外からも呼び出したい、LLMのモデルを柔軟に変えたい、などが発生することも多いです。 そのため実際にLLMアプリケーションを作っていく際は単純にAPIを叩くだけでは解決できないことがおおく、LLMに関わる処理をどこかにまとめておき、まとめておいたものをAPI経由で呼び出すという形にするのが好ましいです。 そこで登場するのがDifyです。 Difyはチャッ

    Dify API と GASのカスタム関数を組み合わせてスプレッドシートからLLMを利用する