並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 338件

新着順 人気順

Word2vecの検索結果241 - 280 件 / 338件

  • 大規模言語モデルの基礎 - Qiita

    1. はじめに 本記事では、昨今話題になっている大規模言語モデルの基礎的な内容として、モデルの内部構造や学習の手続き、その応用について紹介します。 2. 大規模言語モデルとは 大規模言語モデル(LLM: Large Language Model)は、機械学習の枠組みで日本語や英語などの言語を数理的に取り扱う生成モデルの一種です。言語を統計的に取り扱う言語モデルの登場は1990年にまで遡り、その後2000年代のニューラル言語モデルや、2017年のTransformerに端を発する学習済言語モデルの登場など、数多くの発展を遂げてきました。この流れの中で、2022年にOpenAIから発表されたChatGPT(GPT-3.5)は、あたかも人間と会話しているかのような流暢な言語の生成ができることで話題になりました。その後、GPT-4(OpenAI)、PaLM2(Google)、LLaMA2(Meta

      大規模言語モデルの基礎 - Qiita
    • 自然言語処理(NLP)の基礎と応用: Pythonで学ぶテキストデータの解析 - Python転職初心者向けエンジニアリングブログ

      自然言語処理(NLP)は、コンピュータが人間の言語を理解し、処理するための分野です。PythonにはNLPを実現するための豊富なライブラリが存在し、本記事ではNLPの基礎から応用までをPythonコードを交えながら詳しく解説します。 1. NLPの基礎 1.1 テキストデータの前処理 NLPの最初のステップはテキストデータの前処理です。これにはテキストのクリーニング、トークン化、ストップワードの削除などが含まれます。 import re from nltk.corpus import stopwords from nltk.tokenize import word_tokenize # テキストデータのクリーニング def clean_text(text): text = re.sub(r"[^a-zA-Z]", " ", text) # アルファベット以外の文字をスペースに置換 text

        自然言語処理(NLP)の基礎と応用: Pythonで学ぶテキストデータの解析 - Python転職初心者向けエンジニアリングブログ
      • 学習済みEmbeddingを利用する時の前処理ゴールデンルール - For Your ISHIO Blog

        Word2vecやfastText、Gloveなど、Word Embeddingの方法は広く普及してきており、外部から学習済みのEmbeddingデータをインポートし、そのベクトルを手元のデータセットに適用し利用するケースも増えています。 学習済みEmbeddingを効果的に利用するためには、一般的な自然言語の前処理とは異なるアプローチが必要らしいです。次のKernelでは、ゴールデンルールとして紹介されていますので、このブログで触れたいと思います。 How to: Preprocessing when using embeddings | Kaggle 目次 そもそもEmbeddingとは 2つのゴールデンルール 利用するデータセット 適用先のデータセット データセットのVocabularyを作成 学習済みEmbeddingの読み込み vocabと外部Embeddingの単語の重複チェッ

          学習済みEmbeddingを利用する時の前処理ゴールデンルール - For Your ISHIO Blog
        • Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた - Qiita

          Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた自然言語処理word2vecRNNAttention Attentionを理解するために、学習した事を整理します。 参考文献 ①「深層学習による自然言語処理」 講談社  坪井祐太 海野裕也 鈴木潤 著 ②「ゼロから作るDeep Learning2 自然言語処理編」 オライリー 斎藤康毅 著 ■RNN(recurrent neural network) 文献①によると、再帰ニューラルネットワーク(RNN)は可変長の入力列を扱うことに優れたネットワーク構造で、前の時刻の隠れ状態ベクトルと現時刻の入力ベクトル(または下層の隠れ状態ベクトル)を使って、現在の隠れ状態ベクトルを更新するとのこと。 う~ん、分かりにくいので絵にしてみました。 上図のxは入力、hは隠れ層です。時刻tで

            Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた - Qiita
          • チームラボの次回作のイメージをAIに描かせてみる

            チームラボの次回作のイメージをAIに描かせてみる 2021.10.19 Updated by Ryo Shimizu on October 19, 2021, 05:58 am JST 日本ディープラーニング協会が発行するG検定やE資格といったディープラーニング資格保持者のコミュニティにCDLEというものがある。 日本ディープラーニング協会がなかなか見どころがあると思うのは、単に業界団体として資格を発行したりするだけでなく、資格取得者のその後の活躍までサポートするためにCDLE向けのセミナーを定期的に行なったり、ハッカソンを行なったりしているところだ。やはり資格を発行するだけでは意味がなく、資格の保持者にちゃんとディープラーニングを活用してもらわないと意味がないと考える姿勢は立派である。 その、CDLEが開催するハッカソンにメンターとしてやってきてくれないかと言われ、休日でもあったので金に

              チームラボの次回作のイメージをAIに描かせてみる
            • word2vecで「クソデカ」+「羅生門」を検証する - Qiita

              ある月の暮方のでかいである。 どでかいののどでかいで雨やみを待っていた。 でかいどでかいのどでかいには、このどでかいのどでかいにどでかいもいない。 ただ、どでかいが、でかいどでかいでかいはありでかいでかいでかいである。 どでかいが、このどでかいのどでかいにはどでかいもいない。 でかいかと云うと、このどでかいどでかい、大阪には、大地震とかが棲む。 どでかいしまいには、引どでかいどでかいのずどでかいを、このどでかいへ持ってどでかいて、棄てて来ると云うどでかいさえでかいどでかい。 そこで、どでかいがどでかい無くなると、どでかいでもでかいを悪るがって、このどでかいのどでかいへは足ぶみをしずでかいによってけれどまったのである。 どでかい代りまたをでかいにけれどながら、ぼうっと、降るのどでかいのを見晴らしていた。 どでかいはどでかい、「どでかいが雨やみを待っていた」とどでかいいた。 しかし、どでかいは

                word2vecで「クソデカ」+「羅生門」を検証する - Qiita
              • AIレコメント | Octoparse

                情報が爆発的に増加している今日、ニュースレコメンドエンジンは、多くのニュースサイトやアプリにとって重要な技術となっています。ニュース推薦技術の適用は、情報過多の問題を改善するだけでなく、使用体験を向上させ、ユーザーの粘着性と定着性も向上させます。 しかし、ニュースメディアのプラットフォームには、ニュースデータを効率的に獲得し整理するだけではなく、ニュースコンテンツを体系的に分類したり、高度なコンテンツ推薦アルゴリズムの整備と膨大なユーザーデータを活用することによって、ユーザーが興味を持っているコンテンツをユーザーのホームページに推薦します。 レコメンデーション領域で代表となる企業はByteDanceです。この会社は近年Tiktokの流行に伴って、世界で多くの人に知られています。実は、Tiktokの他に、この会社が開発した「BuzzVideo」「VigoVideo」なども近年急激な成長を遂げ

                • 最強囲碁AIのAlphaGoを開発したDeepMindがGoogleのAI部門と統合して「Google DeepMind」に

                  イギリスのAI開発企業であるDeepMindは、プロ棋士にも勝利した最強の囲碁AI「AlphaGo Zero」やタンパク質の立体構造予測AI「AlphaFold」を開発したことで知られています。そんなDeepMindと、姉妹企業であるGoogleの研究機関・Google ResearchのAI部門であるBrainチームが統合すると発表されました。 Google DeepMind: Bringing together two world-class AI teams https://blog.google/technology/ai/april-ai-update/ Announcing Google DeepMind https://www.deepmind.com/blog/announcing-google-deepmind Googleのスンダー・ピチャイCEOは、「私たちは2016

                    最強囲碁AIのAlphaGoを開発したDeepMindがGoogleのAI部門と統合して「Google DeepMind」に
                  • ねこでもわかるWord2Vec入門 - Qiita

                    モチベーション 初めまして、pyaNottyと申します。初投稿です。 最近、MeCabやらkerasやらに触れる機会があり、せっかくなので何か自然言語処理にチャレンジしたいなと思いました。自然言語処理、とくにLSTMなどを用いた文章生成なんかでは、Word2Vecによる分散表現が利用されることが多いと聞きます。今回は、LSTMモデルに食わせることができる単語の分散表現を、Word2Vecで作ってみようと思います。 ねこ並みの知能しか持ち合わせていない筆者でも、なんとかできるくらい簡単です。 Word2Vecとは 単語をベクトルに変換するためのモデルのことです。 何か文章を使ってLSTMモデルとかを訓練する場合、生の文字列をモデルに食わせることはできません。ですので、文章を何らかの数値表現に変換する必要があります。例えば、「これはペンです」という文章の場合、['これは', 'ペン', 'です

                      ねこでもわかるWord2Vec入門 - Qiita
                    • アクセスに基づいた推薦のために、文書のどのような情報を使うべきか(その1) - Sansan Tech Blog

                      3行で アクセスに基づいた推薦のために、文書のどのような情報を使うべきか考えた。 ニュースの中の名詞、固有名詞、名詞×ジャンル、固有名詞×ジャンルの4つに分けて推薦を行い、ユーザーが興味を持ちそうなニュースを推薦できているかを定性的に確認した。 結果として、今回のデータ・手法では、下記3点が分かった。 名詞抽出による近傍探索で、ユーザー興味に沿ったニュースが推薦できる 固有名詞について、より上手な抽出方法を次の記事で検討する 推薦にジャンル情報を活用すると、うまく推薦できなかった場合でもユーザー興味を大幅には外さない推薦となりうる 目次 3行で 目次 初めに 実装 手法 文書から抽出する要素を決める 文書から要素を抽出する アクセスしたと想定するニュース 名詞、固有名詞を抽出 学習済みの分散表現がアクセスしたニュースのキーワードを含むかどうか 抽出された分散表現のt-SNEによる可視化 類

                        アクセスに基づいた推薦のために、文書のどのような情報を使うべきか(その1) - Sansan Tech Blog
                      • Python可視化ライブラリを利用したレシピの紹介 - Qiita

                        はじめに Axross Recipeを運営している松田です。 今回は、Pythonライブラリの中でも可視化に優れたライブラリについて特長を解説し、それぞれのライブりを活用したアウトプット作成を通して学べるレシピをご紹介します。 Python可視化ライブラリの紹介 データ可視化(汎用) ###matplotlib Pythonでグラフを描画したり、イメージを表示させたりする際に用いられるライブラリです。 matplotlibの公式チュートリアル:https://matplotlib.org/3.3.3/tutorials/index.html matplotlibを用いたレシピの紹介 01 .matplotlibによるグラフ出力の"いろは"が学べるレシピ Pythonのグラフ化ライブラリmatplotlibの様々な機能を使って、ビジネス活用できるグラフ可視化ノウハウを試しながら学べます。 投

                          Python可視化ライブラリを利用したレシピの紹介 - Qiita
                        • 日本語単語ベクトル"chiVe"をgensimやMagnitudeで使う

                          TL;DR chiVe (チャイブ): 日本語単語分散表現 形態素解析器「Sudachi」 と 258億語規模コーパス「NWJC」 Apache-2.0, 商用利用可 gensimやMagnitude形式でもデータ公開 Magnitude: 分散表現を使うPythonライブラリ 「gensim」のシンプルで速い代替ライブラリ 未知語のベクトル作成 HTTP上でのリモートロードやストリーミング from pymagnitude import Magnitude, MagnitudeUtils # ダウンロード # デフォルトのダウンロード先: `~/.magnitude/` vectors = Magnitude(MagnitudeUtils.download_model("chive-1.1-mc90-aunit", remote_path="https://sudachi.s3-ap-n

                            日本語単語ベクトル"chiVe"をgensimやMagnitudeで使う
                          • 誰でも簡単に自然言語処理ができるfastTextとは?「Mac」-「Apple」+「Microsoft」= ?言葉の足し算できますか? | 株式会社PLAN-B

                            TECH 機械学習 開発小ネタ エンジニア 誰でも簡単に自然言語処理ができるfastTextとは?「Mac」-「Apple」+「Microsoft」= ?言葉の足し算できますか? 「Mac」-「Apple」+「Microsoft」= ? このような言葉の足し算をコンピューター上でできますか?私たち人間がこのような問題を考えるときは、なぞなぞを考える要領で考えれば解くことができます。 しかし、この問題をコンピューターに解かせようとした時、どのようにすればいいのか戸惑ってしまう方も多いのではないでしょうか。そんな人にオススメなのが「Facebook AI Research」というFacebookの人工知能研究所が開発した「fastText」です。 「fastText」を用いれば、誰でも簡単に自然言語処理ができるため、今回はこちらをご紹介します。 fastTextとは「fastText」とは20

                              誰でも簡単に自然言語処理ができるfastTextとは?「Mac」-「Apple」+「Microsoft」= ?言葉の足し算できますか? | 株式会社PLAN-B
                            • AmazonLinux2+python+Word2Vecで連想語辞書を作る - Qiita

                              pythonとWord2Vecで連想語辞書を作成した際の作業記録を残します。コーパスにはWikipediaのDumpを利用させて頂いています。 前提 OSはAmazonLinux2、形態素解析エンジンのMeCabがインストール済であること。 ※ MeCabのインストールについては前回または他の方のインストール記事を参考にして下さい。 作業手順 pythonとpip、依存するライブラリのインストール $ sudo yum install -y python3 $ echo 'alias python=python3.7' >> ~/.bashrc $ source ~/.bashrc

                                AmazonLinux2+python+Word2Vecで連想語辞書を作る - Qiita
                              • TOP2VEC: New way of topic modelling

                                Few years back, it was very difficult to extract Subjects/Topics/Concepts of thousands of unannotated free text documents. Best and simple way was to make some human sit, go thru each articles, understand and annotate Topics. Indeed it was time consuming and prone to subjectivity of perception we humans have. Although many attempts were made in past with simple algorithms like pLSA to treat this a

                                  TOP2VEC: New way of topic modelling
                                • MLFlowと他ツールの組み合わせ - Retrieva TECH BLOG

                                  こんにちは。カスタマーサクセス部 リサーチャーの坂田です。 レトリバでは、固有表現抽出、分類、PoC用ツール作成に取り組んでいます。 PoC用ツール作成は、研究成果をより迅速にPoCで試せることを狙いとしています。 実験結果の可視化UIが充実しているMLFlow を中心に、足りないところを補うため、その他のツールとの組み合わせについて考えていきます。 MLFlow MLFlow は、実験管理からデプロイまでカバーしたツールです。特定のツールに依存しないということに重きを置いています。 4つのコンポーネントに分かれており、必要な機能のみを使えるようになっています。 MLflow Tracking : パラメータ、コードのバージョン管理、生成物の捕捉などを行う機能など。 MLflow Projects : 再現性を担保するための機能など。 MLflow Models : デプロイの支援機能など

                                    MLFlowと他ツールの組み合わせ - Retrieva TECH BLOG
                                  • AWS認定 機械学習 合格しました - Jのブログ

                                    いやー、難しかったー。認定試験合格できたけど、奥が深いので実践できるかというと別かなって印象です。10年インフラエンジニアとしてやってきましたが、統計学とかの知識も必要だったり、機械学習アルゴリズムの理解、アルゴリズムの評価、トレーニングデータのチューニングなどなど、今まで経験したことがないジャンルだったので言葉もわからないし、考え方もわからないって感じで、新卒時代を彷彿させる時間を過ごしました。でも、これが楽しんですよね。エンジニアだし!新しいジャンルのことに触れる機会を得られてかなりいい試験でした。もっと実践でやってきたい。 やったこと [ ] sagemakerのドキュメント読む [ ] ML [ ] 触る [x] データ変換リファレンス https://docs.aws.amazon.com/ja_jp/machine-learning/latest/dg/data-transfo

                                      AWS認定 機械学習 合格しました - Jのブログ
                                    • 寄稿 現代の人工知能と「言葉の意味」。そして記号創発システム。 谷口忠大(立命館大学教授、情報理工学) | 小特集:人間生活、意味、記号 | Vol.45 | REPRE

                                      寄稿 現代の人工知能と「言葉の意味」。そして記号創発システム。 谷口忠大(立命館大学教授、情報理工学) 1 言語を操る人工知能と「大規模言語モデル」 人工知能が記事を書いた。人工知能が小説を書いた。人工知能がとても自然な翻訳をした。人工知能が論文を要約した。人工知能が流暢な言い回しで受け答えをした。などなど、言語に関わる人工知能のニュースが世の中にあふれている。 言語理解は人工知能開発において残る最後のチャレンジの一つであると言われながら、素人目には「もう、ほとんど出来ているのではないか?」と思わされるような成功がこの五年ほどの間で続いてきた。これらの成功の多くはBERT[1]やGPT-3[2]を始めとする「大規模言語モデル」に基づいている。 [1] Devlin, Jacob, et al. "BERT: Pre-training of deep bidirectional transf

                                      • Kaggle Data Science Bowl 2019 参戦記 〜10万ドルの夢を見た話〜 - ML_BearのKaggleな日常

                                        これはなに? Kaggleで10/24-1/23に開催されたData Science Bowl 2019コンペの参加記録です 子供向けの教育アプリのログデータを元に、子供たちが課題をどれくらいの精度で解くことができるかを推定するタスクでした。 優勝賞金10万ドルの大盤振る舞いなコンペで、個人で最高5位まで順位が上がったときにはなかなかいい夢を見ることができました。 ただ、評価指標の特性及びpublicLB(暫定順位)の算出に利用するデータ数不足などから、暫定順位(publicLB)と最終順位(privateLB)が激しく入れ替わるコンペでした。 評価指標に振り回されてアタフタした挙げ句、public 17thからprivate 56thと大きく順位を下げるというあまりよろしくない結果に終わってしまったのですが、反省も込めてやったことのメモを残しておきます。 いい夢見ていたときのツイート 捨

                                          Kaggle Data Science Bowl 2019 参戦記 〜10万ドルの夢を見た話〜 - ML_BearのKaggleな日常
                                        • Colaboratory上で「word2vecの学習」と「Tensorboardによる可視化」 - Qiita

                                          はじめに この記事では、Colaboratoryでword2vecの学習とTensorboardによる可視化を行ないます。 TensorBoardの出力結果はインターネット上で公開されてしまうので、オープンデータのみ使用するようしてください (公開せずにTensorBoardのPROJECTORを実装する方法をご存知の方がいらっしゃましたら教えてください) word2vecとTensorboardの説明は、行わないので別途学習してください Word2Vec:発明した本人も驚く単語ベクトルの驚異的な力 あらゆるデータを可視化するTensorBoard徹底入門 使用データ/行うこと word2vecの学習には、著作権が切れたためにフリーで公開されている青空文庫にある夏目漱石作の「吾輩は猫である」を使用します。 小説内の単語をword2vecで学習することで、コンピューターが正しく「吾輩」は「猫

                                            Colaboratory上で「word2vecの学習」と「Tensorboardによる可視化」 - Qiita
                                          • Building Natural Language Processing Models with Keras

                                            Machine LearningDeep Learning Illustrated: Building Natural Language Processing Models Andrea Lowe2019-08-22 | 130 min read Many thanks to Addison-Wesley Professional for providing the permissions to excerpt "Natural Language Processing" from the book, Deep Learning Illustrated by Krohn, Beyleveld, and Bassens. The excerpt covers how to create word vectors and utilize them as an input into a deep

                                              Building Natural Language Processing Models with Keras
                                            • AI のマルチツールのご紹介: ベクトル エンベディング | Google Cloud 公式ブログ

                                              ※この投稿は米国時間 2022 年 3 月 24 日に、Google Cloud blog に投稿されたものの抄訳です。 エンベディング(埋め込み)は、機械学習における最も汎用性のある手法の一つであり、すべての ML エンジニアが使用するべき重要なツールです。したがって、エンベディングとは何か、また何に役立つかを理解している人が少ないのは、とても残念なことです。 問題は、エンベディングがやや抽象的で難解に聞こえることかもしれません。 機械学習において、エンベディングとは、データを N 次元空間の中にある点として表現する手法で、類似したデータポイントをクラスタ化できます。 退屈でつまらない?騙されてはいけません。なぜなら、この ML マルチツールを理解すれば、検索エンジンからレコメンデーション システム、chatbot など、あらゆるものを構築できるようになるからです。さらに、ML の専門知

                                                AI のマルチツールのご紹介: ベクトル エンベディング | Google Cloud 公式ブログ
                                              • 特許データで学習させたSpherical Text Embeddingの結果を眺める - CreateField Blog

                                                はじめに これは、情報検索・検索エンジン Advent Calendar 2019 の 22日目の記事です。 かなり遅れてしまいましたが、Advent Calendar 2019の記事を書きます。 意味的に類似するドキュメントを検索するために活用される技術の1つとして、Word Embeddingがあります。 今回は、Word Embedding系の技術で最近提案されたSpherical Text Embedding - JoSE(Joint Spherical Embedding)を特許データで試してみます。 論文 https://arxiv.org/pdf/1911.01196.pdf スライド https://yumeng5.github.io/files/Spherical-Text-Embedding.pdf Spherical Text Embedding について Spher

                                                  特許データで学習させたSpherical Text Embeddingの結果を眺める - CreateField Blog
                                                • Pytorch:Embeddingに学習済みの重みを使う - 機械学習・自然言語処理の勉強メモ

                                                  やりたいこと 事前にWord2Vecなどで学習した分散表現をネットワークの重みとして用いる。 結論としては、Embedding層の重みにテンソル型に変換した分散表現行列をセットするだけで良かった。 備忘録としてコードを残しておく。 (ここでは、Googleの学習済みの分散表現ベクトルを用いた。) これのハンドリングが良く分からったので、いったんgensimで読み込んだ。 import torch import torch.nn as nn import numpy as np import gensim model_dir = './GoogleNews-vectors-negative300.bin' model = gensim.models.KeyedVectors.load_word2vec_format(model_dir, binary=True) syn0にnumpy.nda

                                                    Pytorch:Embeddingに学習済みの重みを使う - 機械学習・自然言語処理の勉強メモ
                                                  • 異常検知アルゴリズムを用いたテキストノイズ抽出 | 株式会社AI Shift

                                                    こんにちは AIチームの戸田です 今回は異常検知アルゴリズムを用いたテキストノイズ抽出を試してみたいと思います。 自然言語処理を行う際に必ずと言っていいほど直面する問題の一つがテキストのノイズです。特に実環境で動いているプロダクトのログデータを扱う際は、「あああああああ」のような無意味な文字列や「よろしくお願いします」のようなタスクと関係の無い一般的な文章など多種多様なノイズが存在するため、これらを除去しなければなりません。 今回紹介する手法をきっかけはこちらのブログで、簡単に手法を説明すると、GloVeとTF-IDFから得られたベクトルをPCAで圧縮し、IsolationForestで異常値を見つける、といったものでした。こちらのブログではNIPS 2015の論文に対して手法を適用してい概ね良い結果を収めています。本記事では日本語のカスタマーサポートのデータに適用し、言語とドメインを変え

                                                      異常検知アルゴリズムを用いたテキストノイズ抽出 | 株式会社AI Shift
                                                    • BERTの単語ベクトルを覗いてみる - Qiita

                                                      Googleが2018年10月に発表し、大いに話題となった自然言語処理モデルBERT。このBERTのモデルから単語ベクトルが抽出できるようなので、色々と調べてみようと思います。 BERTの単語ベクトルの特徴 単語ベクトルといえばWord2Vecですが、Word2Vecの単語ベクトルは、異なる意味の単語でも字面が同じならば全て同じ値になってしまうという欠点があります。 例えば下のような文があった場合、この文の最初の「HP(ヒューレット・パッカード)」と2つ目の「HP(ホームページ)」は別の意味を持つ単語ですが、ベクトルとしては同じになります。 HP社は、2019年11月18日に新製品をHPで発表した。 ところが、BERTの場合は、2つの「HP」のベクトルは異なる値になります。それだけではなく、下の例のような同じ意味の3つの「HP」も、すべて異なるベクトルになります。 HP社は、HP社と、HP

                                                        BERTの単語ベクトルを覗いてみる - Qiita
                                                      • Amazon.co.jp: PyTorch自然言語処理プログラミング word2vec/LSTM/seq2seq/BERTで日本語テキスト解析! (impress top gearシリーズ): 新納浩幸: 本

                                                          Amazon.co.jp: PyTorch自然言語処理プログラミング word2vec/LSTM/seq2seq/BERTで日本語テキスト解析! (impress top gearシリーズ): 新納浩幸: 本
                                                        • ことばの意味と比喩と詩情のかかわり|あきる

                                                          この記事は筆者の独自研究によるものです。これらの議論をフォーマルな場に持ち込む場合には、内容を慎重に検討し、必ず充分な裏付けをおこなうようにしてください。この記事について以下の記事についてコメントするものです。 これは『いぬのせなか座』による現代詩アンソロジーである「認識の積み木」(『美術手帖2018年3月号』所収)の書評記事で、大滝瓶太というライターによって書かれたものです。内容としては私たちが〈詩〉を読むときに感じる詩情の源泉と考えられる要素について手短に考察するものになっています。「認識の積み木」が扱う考察は横断的で示唆に富むものですが、そのなかでとりわけ詩情という部分について展開した議論として、大滝の記事は興味深い意見を紹介しています。ただ、内容的にやや読者の誤解をまねく部分がある気がするので、この記事ではその点についてコメントしたいと思います。 ことばの意味理解大滝の記事は「認識

                                                            ことばの意味と比喩と詩情のかかわり|あきる
                                                          • HIGH OUTPUT MANAGEMENT

                                                            Technical Notes ▼ IDE ▼ IntelliJ PhysicalSimulation ▼ mechanics ▼ 質点の運動 DataMining ▼ 時系列データ分析 ▼ ホワイトノイズ(白色雑音) models ▼ GARCH モデル 自己回帰モデル(AR モデル) ARCH モデル 見せかけの回帰 特異スペクトル変換 単位根過程 定常過程 ウェーブレット変換 Network ▼ ssl-server-certificate ▼ CSR ルート証明書 ネットワーク用語 Management ▼ 心理的安全性 オートクライン効果 QC 7つ道具 external-and-internal-career.md キャリア・アンカー 計画的偶発性理論 振り返り 権限移譲 Others ▼ Software ▼ Slack Jekyll Tex 数式 Principle ▼ ソ

                                                            • Wav2vec: Semi-supervised and Unsupervised Speech Recognition

                                                              Word2vec for audio quantizes phonemes, transforms, GAN trains on text and audio from Facebook AI. JS disabled! Watch Wav2vec: Semi-supervised and Unsupervised Speech Recognition on Youtube Watch video "Wav2vec: Semi-supervised and Unsupervised Speech Recognition" Wav2vec is fascinating in that it combines several neural network architectures and methods: CNN, transformer, quantization, and GAN tra

                                                                Wav2vec: Semi-supervised and Unsupervised Speech Recognition
                                                              • ML Feature Stores: A Casual Tour 1/3

                                                                This is part 1 of a series of articles:“ML Feature Stores: A Casual Tour”. Part 2 is here and Part 3 is here. The combined pressures of data monetization and privacy compliance are escalating at a dramatic pace. Machine learning (ML) and data science (DS) teams are asked to ship autonomous and intelligent products at a faster rate. This comes with many hurdles. A central for ML practitioners to sc

                                                                  ML Feature Stores: A Casual Tour 1/3
                                                                • アジャイルサムライ

                                                                  Technical Notes ▼ IDE ▼ IntelliJ PhysicalSimulation ▼ mechanics ▼ 質点の運動 DataMining ▼ 時系列データ分析 ▼ ホワイトノイズ(白色雑音) models ▼ GARCH モデル 自己回帰モデル(AR モデル) ARCH モデル 見せかけの回帰 特異スペクトル変換 単位根過程 定常過程 ウェーブレット変換 Network ▼ ssl-server-certificate ▼ CSR ルート証明書 ネットワーク用語 Management ▼ 心理的安全性 オートクライン効果 QC 7つ道具 external-and-internal-career.md キャリア・アンカー 計画的偶発性理論 振り返り 権限移譲 Others ▼ Software ▼ Slack Jekyll Tex 数式 Principle ▼ ソ

                                                                  • GiNZAの単語分散表現にchiVeを使って精度向上のお試し - Taste of Tech Topics

                                                                    こんにちは。最近シェアハウスのネットワークをIPv6に切り替えたら快適になった@Ssk1029Takashiです。 最近は学習済み単語分散表現が日本語でも充実してきており、語彙の多いもの・ドメインに特化しているものなど選択肢の幅が広がってきています。 日本語処理フレームワークであるGiNZAからもデフォルトで単語分散表現が使用可能です。 今回はワークスアプリケーションさんが作成しているchiVeという学習済み単語分散表現を使って、機械学習の精度を向上できるかを見てみます。 はじめに GiNZAとは chiVeとは GiNZAから学習済み単語分散表現を使用する GiNZAからchiVeの分散表現を使用する クラス分類の精度が向上するか試してみる まとめ はじめに 単語分散表現とは単語に対して、ベクトルを埋め込む技術で、Word2Vecなどが代表的です。 すでに学習されている分散表現を使用する

                                                                      GiNZAの単語分散表現にchiVeを使って精度向上のお試し - Taste of Tech Topics
                                                                    • metric learning のファッション分野における活躍

                                                                      この記事の目的は? ファッションの3つの研究分野において、 metric learning がどう使われているかを説明し、関連文献をいくつか紹介します。 metric learning やファッションの研究に興味を持たれた方が、研究を始めやすくなればと考えています。 street-to-shop image retrieval どんな研究か? ファッションアイテムの自撮り画像から、ECサイトで使われるような商品画像を検索 するための研究です。ファッションに限らない、一般的な呼び方だと cross-domain image retrieval と呼んだりもします。 図:自撮り画像の例 図:商品画像の例 出典: (M. Hadi Kiapour et al., 2015, ICCV) Where to Buy It: Matching Street Clothing Photos in Onl

                                                                        metric learning のファッション分野における活躍
                                                                      • Zero-Shot Detectionの研究まとめ

                                                                        こんにちは、研究チームの飯田です。 今回はZero-Shot Detectionについての研究動向になります。 論文紹介については、可能な限り手法の中身まで踏み込んで概要説明を行います。近日中に行われる勉強会で大まかな説明をする予定です。概要説明としては細かい気もしますが、その補助資料として利用して頂ければと思います。 Zero-Shot Detectionとは 本章では、大まかなZero-Shot Detectionの仕組みについて概説します。 Zero-Shot Detectionは、未知のクラスの物体検出を行うタスクです。研究分野としては、物体検出とZero-Shot Learningとを組み合わせた研究分野になります。例えば、シマウマの画像を収集できない場合でもシマウマを検出できるようになる研究分野です。 ユースケースとして、専門知識が必要でラベル付けが困難な場合やそもそもデータそ

                                                                          Zero-Shot Detectionの研究まとめ
                                                                        • T5①(論文のAbstractの確認)|言語処理へのDeepLearningの導入の研究トレンドを俯瞰する #26 - Liberal Art’s diary

                                                                          言語処理へのDeepLearningの導入をご紹介するにあたって、#3〜#8においては、Transformer[2017]やBERT[2018]について、#9~#10ではXLNet[2019]について、#11~#12ではTransformer-XL[2019]について、#13~#17ではRoBERTa[2019]について、#18~#20ではWord2Vec[2013]について、#21~#24ではALBERT[2019]について取り扱ってきました。 XLNet②(事前学習におけるAutoRegressiveとPermutation)|言語処理へのDeepLearningの導入の研究トレンドを俯瞰する #10 - lib-arts’s diary Transformer-XL(論文のAbstractの確認)|言語処理へのDeepLearningの導入の研究トレンドを俯瞰する #12 - lib

                                                                            T5①(論文のAbstractの確認)|言語処理へのDeepLearningの導入の研究トレンドを俯瞰する #26 - Liberal Art’s diary
                                                                          • 結局、Embeddingって何者? - Qiita

                                                                            はじめに 深層学習を用いた自然言語処理に触れると、 Embeddingとかいう耳慣れないヤツに遭遇します。 日本語に直訳すると 埋め込み です。 まるで意味が解らんぞ よくわからないので調べました。 どんな操作? 自然言語を計算が可能な形に変換することをEmbeddingと呼ぶようです。 多くの場合、単語や文章等をベクトル表現に変換する操作のことを指しています。 なんのため? 大きく分けると二つ理由があります。 1. コンピュータが処理できるようにするため 基本的に現在の機械学習アルゴリズムは、文字列型を処理できるように作られていません。 そのため、計算可能な形に変換する必要があります。 2. 変換方法次第で精度の向上が見込めるため また、単に計算可能な形にするだけでなく、ベクトルの表現方法を工夫することで 単語や文章の特徴をベクトルに表現できるようになります。 たとえば、近い意味の単語同

                                                                              結局、Embeddingって何者? - Qiita
                                                                            • はじめての自然言語解析(全文公開)|Seiya Kitazume

                                                                              技術書店5にて出品したはじめての自然言語解析を全文公開します! 1.1 自然言語解析のステップ自然言語解析を行う際は基本的な流れとして、下記3ステップを踏むことになります。 形態素解析・分かち書き→数値ベクトルへ変換→機械学習アルゴリズム適用 形態素解析とは、品詞等の情報に基づいて、意味のわかる最小単位に文章を区切ることを言います。 例えば、「今日は学校に行って、その後塾に行って、数学を勉強した。」という文章があったとします。 これを形態素解析すると下記のようになります。(MeCabというツールを使用しています。後ほど詳しくご説明します。) 分かち書きとは、文章において形態素解析に従って語の区切りに空白を挟んで記述することです。英語では単語と単語の間には空白が存在していますが、日本語にはないため、空白を付け足す必要があります。自然言語処理のアルゴリズムは基本的に英語をベースに作成されたもの

                                                                                はじめての自然言語解析(全文公開)|Seiya Kitazume
                                                                              • text-vectorian

                                                                                Verified details These details have been verified by PyPI Maintainers lhideki Unverified details These details have not been verified by PyPI Project links Homepage GitHub Statistics Overview NLP(Natural Language Processing)において、自然言語をベクトル化するためのPythonモジュールです。 TokenizerやVectorizerの詳細を気にすることなく、任意のテキストから簡単にベクトル表現を取得することが可能です。 現在提供しているTokenizer、Vectorizerの組み合わせは以下の通りです。 SentencePiece + Word2Vec Sentenc

                                                                                  text-vectorian
                                                                                • G検定に向けたチートシート 当日用のカンペ - 社畜の馬小屋

                                                                                  こんばんは、へるもです。 いよいよG検定ですね! 圧倒的な暗記項目の多さにやる気を失っていたのですが、インターネットで調べてもよいという特長を活かして、カンニングペーパーを作ることにしました。 ※取得後に思ったこと herumo.hatenablog.com herumo.hatenablog.com herumo.hatenablog.com チートシート 考えることはみんな同じようで、ネットで調べると幾つか出てきますね。「G検定カンペ、まとめ、チートシート」とかが検索ワードとして強いようです。 ただ、いくつのページを開いて検索するというのは不合理ですし、次の項目で紹介するページを参考にして、ここにないものをまとめる、といった形で作成しました。 これだけ書いても足りないんだろうな、と思うとつらいのですが、それでもないよりマシです。 自分用のメモなので間違っていたらごめんなさい。何かあれば

                                                                                    G検定に向けたチートシート 当日用のカンペ - 社畜の馬小屋