タグ

tar0_tのブックマーク (3,398)

  • TeamsのIncomming Webhookコネクタが廃止されるようなのでPowerAutomateのワークフローに移行してみる - Qiita

    TeamsのIncomming Webhookコネクタが廃止されるようなのでPowerAutomateのワークフローに移行してみるMicrosoftTeamsTeamsPowerAutomate 要約 2024-07-24追記: 廃止スケジュールが少し緩和されましたが、廃止されることは変わっていません TeamsのIncomming WebhookやRSSなどのO365系のコネクタが 最短 2024-12-31 に廃止される 2024-12-31までにURL変更を行うことで 2025-12 まで延長できるようになった (2025-12で廃止なのかは明言されていない) 作成自体は 2024-08-15 から作成できなくなる 代替としてPowerAutomateのワークフローが案内されている ワークフローは個人の所有として作られ、変更できない。(ライセンス次第では所有者を変更できるようですが、

    TeamsのIncomming Webhookコネクタが廃止されるようなのでPowerAutomateのワークフローに移行してみる - Qiita
    tar0_t
    tar0_t 2024/09/24
  • 【小ネタ】Raspberry Pi と USB接続のWebカメラ でRTSPサーバを作って動画を配信する | DevelopersIO

    1 はじめに こんにちは、AIソリューション部の平内(SIN)です。 Amazon Kinesis Video Streamsを色々試している中で、手軽に利用できるRTSPサーバが欲しいと言うことで、Raspberry Pi で作った記録です。 使用させて頂いたのは、v412rtspserverです。 https://github.com/mpromonet/v4l2rtspserver 作成したRTSPサーバで配信しているようすです。 2 要件 今回、利用した諸元等は以下のとおりです。 (1) 3 Model B+ $ cat /proc/cpuinfo | grep Revision Revision : a020d3 (2) Raspbianイメージ 昨年11月の最新版(Raspbian GNU/Linux 9 (stretch)) 2018-11-13-raspbian-stret

    【小ネタ】Raspberry Pi と USB接続のWebカメラ でRTSPサーバを作って動画を配信する | DevelopersIO
    tar0_t
    tar0_t 2024/09/02
  • 『M5Stack WiFiアクセスポイントにする。スマホブラウザーからリモート』

    いままでリモコンはUDPでやっていましたが、家のWiFiに接続ってところがすこしひっかかっていました。まぁUDPでも直接やれる方法もあるようなのですが、もうすこしおもしろい方法がありました。 M5StackをWiFiアクセスポイントにするのですが、ブラウザーに表示するページもM5Stack内で作成します。そうすればスマホなどの適当なブラウザーで見ればそこからコントロールできそうです。もとネタはM5Atom用だったのですがM5Stack用にすこし書き換えてとりあえずテスト。 これがスマホにあるスイッチのオフをクリックした時。画面がグリーンになりLEDは消えている。 これが オンをクリックしたとき。画面がブルーになりLEDが点灯している。 ということで HTMLがすこしかければリモコン画面は作れそう。以前 自分のHPもっていたときHTMLを触っていたのでそれが役立つかも。 クリックされたらM5

    『M5Stack WiFiアクセスポイントにする。スマホブラウザーからリモート』
    tar0_t
    tar0_t 2024/08/27
  • ATOM Matrixで作る「IoT見守り監視センタ」 | マルツオンライン

    [企画・制作] ZEPエンジニアリング ネットワーク機器のアクティビティ・チェック 我が家では、固定電話をひかり電話に変えてから宅内の電話機としてWi-Fi接続のIP電話機を使用しています。ところが気付くとコネクションが切れていて、電話の着呼ができない状態になってしまっていることがありました。一旦切れてしまうと自動で復帰しないようで、回線のアクティビティ・チェック(死活監視)をする必要がありました。当初、Raspberry Pi上で簡単なシェル・スクリプトを動作させて、IP電話機にPingを送信し、無応答の場合にスマホへメールを送信するシステムを運用していましたが、昨今の半導体不足の影響によるRaspberry Piの入手難や価格高騰を考えると「もったいない」と思い、同機能をM5Stackで実現してみました。 リッチなUI(ユーザ・インタフェース)はいらないので、より安価なM5StickC

    tar0_t
    tar0_t 2024/08/27
  • Excelファイルの中身

    Excelで次のCSVファイルに相当する2×2の表を作ったとしよう。 ほげ,ふが 12.34,- 通常のExcel形式(*.xlsx)で保存すると次のファイルがZIPアーカイブされたOffice Open XML形式のファイルができる: [Content_Types].xml _rels/.rels xl/_rels/workbook.xml.rels xl/workbook.xml xl/styles.xml xl/theme/theme1.xml xl/worksheets/sheet1.xml xl/sharedStrings.xml docProps/core.xml docProps/app.xml このうち xl/worksheets/sheet1.xml がシート1の内容である。適宜改行とインデントを入れて見やすく整形したものを示す: <?xml version="1.0"

  • BERTの事前訓練をColabで動かしてみました(『Transformerによる自然言語処理』3章写経) - nikkie-ftnextの日記

    はじめに 「彼と出会った瞬間、私の人生が変わったの。(略) 世界が輝きだしたの」 (『四月は君の嘘』より) 四月は君の嘘 / alu.jp えぬえるぴーや1のnikkieです。 いやー、BERTは自然言語処理の世界を変えてしまいましたねー! 「そんなBERTをもっと知りたい!」と、この週末『Transformerによる自然言語処理』の写経に取り組みました2。 目次 はじめに 目次 『Transformerによる自然言語処理』 3章 RoBERTaモデルのゼロからの事前訓練 RoBERTa事前訓練を写経 動作環境 RoBERTa事前訓練の流れ fill-maskタスクで事前訓練の確認 「考えながら写経」5のメモ 終わりに 補足: この記事を書いた時点のnikkieの認識 『Transformerによる自然言語処理』 この4月に朝倉書店さんから出版された翻訳書です。 自然言語処理の世界に革命を

    BERTの事前訓練をColabで動かしてみました(『Transformerによる自然言語処理』3章写経) - nikkie-ftnextの日記
    tar0_t
    tar0_t 2024/08/19
  • huggingface / transformersを使って日本語BERTの事前学習を実施してオリジナルな言語モデルを作ってみる - Qiita

    huggingface / transformersを使って日語BERTの事前学習を実施してオリジナルな言語モデルを作ってみる自然言語処理PyTorchberttransformershuggingface はじめに huggingfaceのtransformersのライブラリを使ってBERTの事前学習をやってみました。日語でBERTの事前学習をスクラッチで行っている記事が現段階であまり見当たらなかったですが、一通り動かすことができたので、メモがてら残しておきます。 BERTの事前学習をしてみたいけど、いまいちやり方がわからない人の一助になれば幸いです。 正直まだわかっていないところが多々ありますし、紹介する内容がセオリーな方法かもよくわかっていません。 あれこれ試している最中ですので、もっとこうしたほうがいいよ、みたいなアドバイスございましたらご教示いただけると幸いです! 参考文献

    huggingface / transformersを使って日本語BERTの事前学習を実施してオリジナルな言語モデルを作ってみる - Qiita
    tar0_t
    tar0_t 2024/08/19
  • Transformer Explainer: LLM Transformer Model Visually Explained

    What is a Transformer? Transformer is a neural network architecture that has fundamentally changed the approach to Artificial Intelligence. Transformer was first introduced in the seminal paper "Attention is All You Need" in 2017 and has since become the go-to architecture for deep learning models, powering text-generative models like OpenAI's GPT, Meta's Llama, and Google's Gemini. Beyond text, T

    Transformer Explainer: LLM Transformer Model Visually Explained
  • Google Colaboratoryを使えば環境構築不要・無料でPythonの機械学習ができて最高 - karaage. [からあげ]

    Google Colaboratoryが便利 最近、Google Colaboratoryがちょっと気になっていたのですが、タダケン (id:tadaken3)さんの以下記事に分かりやすく使い方が書いてあったのをきっかけに試して見ました。 結論から言うと、これ良いですね。Google Colaboratoryには以下の特徴(利点)があります。 ローカルPCに必要なのはブラウザ(Google Chrome)のみ クラウド上にPython環境がありPython2/3 両方使える 機械学習に必要なライブラリは、ある程度プリインストールされている(numpy, matplotlib, TensorFlow等) 必要なライブラリは !pip installでインストールできる 日フォントも(ちょっと工夫すれば)使える 無料で使える。なんとGPUも12時間分を無料で使える! これ死角無さすぎでは…

    Google Colaboratoryを使えば環境構築不要・無料でPythonの機械学習ができて最高 - karaage. [からあげ]
    tar0_t
    tar0_t 2024/08/16
  • BERTの日本語事前学習済みモデルをGoogle Colaboratoryで手軽に試す方法 - Qiita

    BERTとは 最近少し自然言語処理を勉強しています(仕事とかは、全く関係なくて個人的興味です)。としては、以下のがとても良かったです。 「Python自然言語処理入門」が自然言語処理の基礎にとても良かった の最後の方に、最新のディープラーニングを使った手法である「BERT」の解説があります。なので、BERTのモデル詳細に関してはや他のネット記事など参照ください。 では、理論面に関しては詳しく解説あるのですが、残念ながらBERTの発表が発刊直前だったとのことで、サンプルまではに盛り込まれていませんでした。というわけで、この記事ではBERTを使って簡単な自然言語処理を実践してみたいと思います。 BERTをGoogle Colaboratoryで手軽に試す 手っ取り早く試すために、この記事ではGoogle Colaboratory(Google Colab)を活用します。Google

    BERTの日本語事前学習済みモデルをGoogle Colaboratoryで手軽に試す方法 - Qiita
  • 粒度分布の計算手法

    図1に示すように、 測定対象となる粒子群にレーザ光を照射すると、空間的に回折・散乱光の光強度分布パターンが生じます。 このうち前方散乱光の光強度分布パターンは、レンズによって集光され、焦点距離の位置にある検出面に、リング状の回折・散乱像を結びます。これを同心円状に検出素子を配置したリングセンサで検出します。また、側方散乱光および後方散乱光は、側方散乱光センサおよび後方散乱光センサでそれぞれ検出します。このように各種検出素子を用いて光強度分布パターンを検出して光強度分布データを得ます。 この光強度分布データは、粒子の大きさによって変化します。実際のサンプルには、大きさの異なる粒子が混在しているため、粒子群から生ずる光強度分布データは、それぞれの粒子からの回折・散乱光の重ね合わせとなります。 この現象を数式(ベクトルとマトリクス)を用いて表現すると、 となります。ただし、 ここで、s は光強度

    tar0_t
    tar0_t 2024/08/15
  • 数理言語学から考える大規模言語モデル | 2024年 | 野村総合研究所(NRI)

    2000年 野村総合研究所入社。企業向けデジタルコンサルティングおよび、言語処理・人工知能・暗号の研究とソリューション開発に従事。2018年・19年連続で、人工知能学会SWO研究会主催のナレッジグラフ推論チャレンジコンテストで最優秀賞受賞。2021年から23年 CRYPTREC(Cryptography Research and Evaluation Committees)高機能暗号委員。 数理言語学とはどんな学問か 外園: 戸次先生が専門とされる数理言語学では、大規模言語モデル(以下、LLM)とは対極的に、言語処理を論理式や証明によって行っており、非常に面白いと感じています。先生は、数理言語学の第一人者でありますが、そもそもどのような学問なのでしょうか。 戸次: どこから語るべきか難しいのですが、計算機科学、哲学、言語学など複数の分野が合流してできた学問と言えます。その大きな流れの一つが

  • LLM(大規模言語モデル)は「言語ゲーム」的か ――東京女子大学現代教養学部准教授・大谷弘氏に聞く(1)

    記号と論理のリールで進化してきたAIは、知覚と経験を重ねる深層学習を経て自然言語を生成するLLM(Large Language Models:大規模言語モデル)に至っている。AIに大いなる進化をもらたした転換を、言語の分析を記号哲学から言語実践へと展開した哲学者・ウィトゲンシュタインの思想と重ねてみる。ウィトゲンシュタイン研究を専門とする東京女子大学現代教養学部准教授・大谷弘氏に聞いた。 取材:2023年7月26日 東京女子大学大谷研究室にて 大谷 弘(おおたに ひろし) 1979年京都府生まれ。東京大学大学院人文社会系研究科基礎文化研究専攻博士課程満期退学。博士(文学)。東京女子大学現代教養学部准教授。専門は西洋哲学。著書に  (筑摩書房)、 『ウィトゲンシュタイン 明確化の哲学』(青土社)、『「常識」によって新たな世界は切り拓けるか――コモン・センスの哲学と思想史』(共編著、晃洋書房)

    LLM(大規模言語モデル)は「言語ゲーム」的か ――東京女子大学現代教養学部准教授・大谷弘氏に聞く(1)
  • 言語の意味の数学的構造 | MaruLabo

    セミナー概要 2/29 マルレク「言語の意味の数学的構造」受付開始しました 遅くなりました。2/29 マルレク「言語の意味の数学的構造」の申し込み受付開始しました。 次のサイトから、お申し込みください。 https://meaning-structure.peatix.com このセミナーは、オンラインで開講します。セミナーは、リアルタイム配信ではなくYouTubeの限定配信で配信します。今回のセミナーは、約2時間を予定しています。セミナーの内容は、YouTubeの限定配信ですので、セミナー当日に限らず、セミナー開始日時以降であれば、いつでも都合の良い時間に見ることができます。ゆっくり視聴することをお勧めします。 「ニューラル言語モデル」への批判を紹介します この間、マルレクでは 数学者Tai-Danae Bradley の大規模言語モデルの数学的構造に対する研究を紹介してきました。 ・大

    言語の意味の数学的構造 | MaruLabo
  • 最適輸送と自然言語処理

    2022-03-14, 言語処理学会 第28回年次大会でのチュートリアル「最適輸送と自然言語処理」のスライドです。当日利用版から増補改訂しました。 講演動画 (YouTube)

    最適輸送と自然言語処理
  • 「確率的なオウム」にできること、またそれがなぜできるのかについて

    九州大学大学院 人文情報連係学府(仮称・設置認可 申請中)学際シンポジウムシリーズ「接続する人文学:テクストを計算する」 https://dh.kyushu-u.ac.jp/research/ 2024年7月

    「確率的なオウム」にできること、またそれがなぜできるのかについて
  • 大規模言語モデル(LLM)にできること・できないこと - Sony Music | Tech Blog

    みなさま、こんにちは。 ソニー・ミュージックエンタテインメントでAI関連技術の調査・検討をしているみみずくと申します。 我々のチームでは、人工知能AI)・機械学習(ML)をエンタメの創出に活用すべく、調査・検討を行っています。 さて、昨今巷を賑わせている大規模言語モデル(以下LLM)ですが、その実態はChatGPTBardから受ける第一印象ほど万能なものではありません。 特に、それほどデータセットのサイズやパラメータ数が大きくないものでは、常に性能の限界と向き合いながら扱う必要性があります。 そこで今回は、LLMにできることとできないことについて紹介していきたいと思います。 ひとくちに大規模言語モデルと言っても… 3種類のTransformerモデル ① エンコーダ・デコーダモデル ② エンコーダモデル ③ デコーダモデル フューショット学習とゼロショット学習 モデルサイズの効果:Sc

    大規模言語モデル(LLM)にできること・できないこと - Sony Music | Tech Blog
    tar0_t
    tar0_t 2024/08/07
  • huggingfaceのトークナイザーを学習する

    はじめに こんにちは。人材領域でレコメンドシステムの機能開発をしている羽鳥です。 今日はみなさんが大好きな huggingface のライブラリを使って、自然言語処理を行う際に欠かせないトークナイザーを学習させる方法について書いていこうと思います。 huggingface 近年の自然言語処理においてはBERT1をベースにしたモデルは欠かせないものになってきました。 そしてその実装として市民権を得ているものの一つがhuggingfaceのライブラリでしょう。 huggingfaceのライブラリを使うと、いい感じに隠蔽されたインターフェイスを利用して多くのモデルを内部構造を気にすること無く使えるようになります。 Kaggleなどの分析プラットフォーム上で行われる自然言語を用いるコンペでもデファクトスタンダードとなっており、多くのユーザーに利用されています。 トークナイザー BERTに限らず自然

    huggingfaceのトークナイザーを学習する
  • 機械学習モデルの判断根拠の説明(Ver.2)

    【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。講演ではこれら近年の代表的な説明法について紹介する。Read less

    機械学習モデルの判断根拠の説明(Ver.2)
    tar0_t
    tar0_t 2024/08/06
  • おまいらのthreading.Eventの使い方は間違っている - Qiita

    はじめに Pythonのthreading.Eventを使っているサンプルはないかとググっていたら上位に間違った使い方をしているものが出てきました。 Qiitaでthreading.Eventを使った投稿でも3件全てが間違った使い方をしているという悲惨な状況たったので、正しい使い方を説明します。 threading.Eventとは イベントが発生するまでスレッドを待機させ、他のスレッドからイベントを発生させると待機スレッドが再開する、という使い方をする為のクラスです。 最も重要なメソッドは以下の2つです。 wait() イベントが発生するかタイムアウトになるまで現在のスレッドを待機させる。 set() イベントを発生させ、待機スレッドを再開させる。 他にもclear()とis_set()があります。 詳細はPythonドキュメントを参照してください。 正しい使い方 まずは正しい使い方を見て

    おまいらのthreading.Eventの使い方は間違っている - Qiita
    tar0_t
    tar0_t 2024/06/28