並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 561件

新着順 人気順

抽出の検索結果201 - 240 件 / 561件

  • ボーカル抽出、音源分離で話題のソニー・ミュージックエンタテインメントのDAW、Soundmain Studio無料お試しキャンペーン実施中!3月31日まで|DTMステーション

    3月1日から、「春の作曲チャレンジキャンペーン」と題したSoundmain Studioお試しキャンペーンが実施されています。Soundmain Studioは、ソニー・ミュージックエンタテインメント(以下SME)の提供するブラウザで動作するDAWで、ボーカル抽出、音源分離、歌声合成(AIボーカル)など、通常のDAWには搭載されていない新世代の機能が特徴となっています。そんなSoundmain Studioは、最新の音楽関連テクノロジーをいち早く機能として実装し、クリエイターが利用できるようにするプラットフォームSoundmainの中心的存在。 なおSoundmainは、サブスクリプション型のサービスとなっており、無料のTrial、有料のBasic、Standardというプランが用意されています。Basicプランでは、歌声合成、Soundmain Studioが利用可能で、Standard

      ボーカル抽出、音源分離で話題のソニー・ミュージックエンタテインメントのDAW、Soundmain Studio無料お試しキャンペーン実施中!3月31日まで|DTMステーション
    • 2万年前のシカの歯のペンダントから女性のDNA 新手法で抽出 | NHK

      およそ2万年前にシカの歯で作られたペンダントに含まれるDNAをドイツなどの研究チームが開発した新しい手法で分析したところ、旧石器時代の女性がこのペンダントを身につけていた可能性があることがわかりました。研究チームはこの手法が、遺伝情報から出土品の所有者などを詳しく知る手がかりになるとしています。 これは、ドイツなどの研究チームが、3日、イギリスの科学雑誌「ネイチャー」に発表しました。 研究チームは、特殊な液体に浸してゆっくりと温度を上げることで出土品を壊さずに内部からDNAを抽出する手法を新たに開発しました。 この手法でシベリアのデニソワ洞窟から見つかった、およそ2万年前のシカの歯でできたペンダントからDNAを抽出し、詳しく分析したところ、旧石器時代の女性のDNAが含まれていることがわかったということです。 研究チームによりますと、女性の遺伝情報は当時、シベリア東部に住んでいた民族のものに

        2万年前のシカの歯のペンダントから女性のDNA 新手法で抽出 | NHK
      • WinRE.wim の抽出手順 (Windows 10 Pro 22H2) - くろねこ自由気ままな日記

        こんにちは くろねこです。 先日、投稿させていただいた Windows Update の KB5034441問題 に関連するものとして、手順をシンプルにまとめてみました。 この記事は、回復パーティションの再構築で必要となる WinRE.wim を取り出す手順を紹介するものです。 Windows 10 インストールメディア作成 Windows.isoを展開 install.wimの抽出 WinRE.wimの抽出 おわりに (ご注意) ※ この手順は、Windows 10 Pro で作業を実施する手順です。(使用しているバージョンは 22H2 です) 他のエディションの場合は、該当する部分(フォルダのパスなど)は異なる場合がありますので読み替えて実施してください。 ※ この手順で、抽出する WinRE.wim は Windows 10 Pro 用のものです。 回復パーティションの再構築方法につ

          WinRE.wim の抽出手順 (Windows 10 Pro 22H2) - くろねこ自由気ままな日記
        • mattn on Twitter: "$ git status --porcelain | vim - してステージングしてないファイル名の中で必要なファイル名だけ抽出して :w !xargs git add みたいなのはよくやる。"

          $ git status --porcelain | vim - してステージングしてないファイル名の中で必要なファイル名だけ抽出して :w !xargs git add みたいなのはよくやる。

            mattn on Twitter: "$ git status --porcelain | vim - してステージングしてないファイル名の中で必要なファイル名だけ抽出して :w !xargs git add みたいなのはよくやる。"
          • Graph Neural Network を用いた�レイアウトつき文書からの情報抽出 / Information extraction from visual documents using Graph Neural Network

            ■イベント 
:ML勉強会 https://sansan.connpass.com/event/211420/ ■登壇概要 タイトル:Graph Neural Network を用いた�レイアウトつき文書からの情報抽出 発表者: 
DSOC R&D研究員  保坂 大樹 ▼Twitter…

              Graph Neural Network を用いた�レイアウトつき文書からの情報抽出 / Information extraction from visual documents using Graph Neural Network
            • spaCy固有表現抽出(+Presidio)によるドキュメントの情報漏えいリスクチェック支援 - OPTiM TECH BLOG

              R&D チームの徳田(@dakuton)です。記事冒頭に書くことが思いつかなかったので先日のGPT記事にあるサンプルを使ってみました。 試してみたところ、Tech Blog記事っぽい出力にはなりました。 入力(Prompt): R&D チームの徳田([@dakuton](https://twitter.com/dakuton))です。 出力: 皆さんおひさしぶりです。遅くなりましたが、11/18(金)に行われましたRuby Machine Learningの勉強会の模様を記事にしました。 サンプルは下記参照 tech-blog.optim.co.jp 背景 本題ですが、目的は本記事タイトルのとおりです。 参考: 個人情報保護委員会が個人情報を漏えい パブリックコメント参加者の氏名や所属先を誤掲載 - ITmedia NEWS 技術要素としては下記と同じような内容です。本記事ではこれをspa

                spaCy固有表現抽出(+Presidio)によるドキュメントの情報漏えいリスクチェック支援 - OPTiM TECH BLOG
              • 無作為抽出の市民参加で新しい民主主義 | NHK | WEB特集

                「無作為での抽出で、あなたが選ばれたので会議に参加しませんか?」 ある日突然、自治体からこんな案内状が届いたらどうしますか。 今、「くじ引き民主主義」と呼ばれる取り組みが広がってきています。選挙で選ばれた議員ではなく、無作為に選ばれた市民が討議を行い、行政の意思決定や政策に反映させるというものです。 「“くじ引き”なんかで政策を考えていいの?」 そんな疑問も聞こえてきそうですが、選挙による議会に頼るだけではない新しい民主主義の形として、注目を集めています。 (おはよう日本ディレクター 酒井佑陶) 一見すると何の変哲もない会議風景ですが、この会議の参加者は無作為に選ばれた住民たちが中心です。 住民基本台帳の中からランダムに選ばれた市民1500人に案内が送られ、承諾した41名に、公募で参加を希望した27人が加わって参加しています。その際、武蔵野市全体の年齢層や男女比、居住地の割合に近づくように

                  無作為抽出の市民参加で新しい民主主義 | NHK | WEB特集
                • Wikipediaを用いた日本語の固有表現抽出データセットの公開

                  Wikipediaを用いた日本語の固有表現抽出データセットの公開

                    Wikipediaを用いた日本語の固有表現抽出データセットの公開
                  • AIボーカル除去・抽出ソフト 「Ultimate Vocal Remover」の使い方と最良設定について - YTPMV.info

                    2023/01/13 追記 最新版ではこの記事で紹介しているものに加えいくつかの昨日が追加されています。使用の上でこの記事の内容で問題ありませんが、後日アプデ要素について追記します 要旨 機械学習を用いたボーカル除去ソフト「Ultimate Vocal Remover」導入方法・使用方法を解説した上で、いくつかの学習モデルを用い複数条件でボーカル抽出を行い、ボーカル抽出に適したモデル・設定を追求した。その結果、VR Architectureメソッドの3_HP-vocalUVR.pthと、MDX-netメソッドのUVR-MDX-NET Mainモデルでのボーカル抽出が精度が高いという結論になった。両者でのモデルで抽出した後にManual Ensembleで合成するとより良い抽出となるかもしれない。 設定については、結論の項目のスクショを参考のこと。 また、楽曲でのボーカル抽出とは別に、BGM

                      AIボーカル除去・抽出ソフト 「Ultimate Vocal Remover」の使い方と最良設定について - YTPMV.info
                    • Xcodeのキャッシュを抽出/削除できるユーティリティ「DevCleaner for Xcode v2.0」がリリース。レガシィドキュメントやログの削除機能とコマンドラインツールを追加。

                        Xcodeのキャッシュを抽出/削除できるユーティリティ「DevCleaner for Xcode v2.0」がリリース。レガシィドキュメントやログの削除機能とコマンドラインツールを追加。
                      • 話者を区別できる文字起こしツール「CLOVA Note」、キーワードも自動抽出

                        セミナーや会議の内容をテキスト化しておくと後から振り返りやすい。しかし、音声をテキスト化する、いわゆる文字起こしの作業は、長時間にわたるセミナーや参加者が複数いる会議などでは担当者の負担が大きい。そこで、文字起こしツールを利用する人も多いだろう。 筆者も職業柄、インタビューや講演の文字起こしをする機会が多く、文字起こしツールをいくつか使ってきた。現在は、今回紹介する「CLOVA Note(クローバ・ノート)」を仕事の相棒として頼りにしている。 CLOVA Noteは、LINEのAIテクノロジーブランド「LINE CLOVA」によるAI音声認識アプリだ。音声認識エンジンはLINE CLOVAが開発した「CLOVA Speech」が使用されている。2022年5月からベータ版として無料提供が開始された。 スマートフォンアプリ(iOS/Android)を起動し、アプリで録音した後に文字起こしするか

                          話者を区別できる文字起こしツール「CLOVA Note」、キーワードも自動抽出
                        • GiNZAの固有表現抽出とElasticsearchを使って自動でタグ検索 - Taste of Tech Topics

                          こんにちは。@Ssk1029Takashiです。 最近は家でもどうにかラーメンを食べられないかと試行錯誤しています。 タグ検索とは、キーワード検索とは違い、検索する前からユーザーが選択肢からキーワードをセレクトボックスなどで選んで、検索できる検索方法です。 通常のキーワード検索と違って、ユーザーが0からキーワードを考える必要がないため、効率的に情報を絞り込めます。 もしくは、キーワード検索と併用して使用することも可能です。 ただ、コンテンツごとにタグを設定するのはとても手間がかかります。 コンテンツ作成者も必ずしもタグを設定してくれるとは限りません。 このような時に、自動でタグ付けをしてくれる仕組みがあると楽にタグ検索を実現できます。 ただ、単純な形態素解析で名詞をタグとすると、ゴミが多くなってしまいます。 そこで、今回は、日本語処理ライブラリであるGiNZAの固有表現抽出機能とElast

                            GiNZAの固有表現抽出とElasticsearchを使って自動でタグ検索 - Taste of Tech Topics
                          • 数量・時間表現抽出ツールをPythonでゼロから実装してみた【NormalizeNumexp】 - Qiita

                            はじめに 何をしたのか NormalizeNumexpと呼ばれる数量表現や時間表現の抽出・正規化を行うOSSの実装をすべてPythonで実装しました。 Python3.7~3.10で動きます。 GitHub:https://github.com/tkscode/pyNormalizeNumExp PyPI:https://pypi.org/project/pynormalizenumexp/ 何が嬉しいのか Pythonで使う際にpipコマンドで一発でインストールできるようになりました。 本家はC++で実装されており、Pythonで利用する場合は 依存ライブラリであるuxとpficommonをインストールする 本家のNormalizeNumexpをインストールする SWIGによるPythonバインディングをインストールする といった手順を踏みますが コードが古いため1.~2.でエラーが頻発

                              数量・時間表現抽出ツールをPythonでゼロから実装してみた【NormalizeNumexp】 - Qiita
                            • スクレイピング時に本文だけを抽出する最高精度ツールが優秀!【日本語版も公開】 - Qiita

                              n,pはそれぞれnegative(ノイズ),positive(本文)を基準とした時の評価を表します。 例としてノイズ部分をN,本文をPとし,正解をT(True)、間違いをF(False)とした時にPresicionはそれぞれ以下の式です。 $$ Presicion_{[n]} = \frac{TN}{TN + FN} $$ $$ Presicion_{[p]} = \frac{TP}{TP + FP} $$ nのf値はどれだけ正確にノイズを除去できているかを、pのf値はどれだけ正確に本文を抽出できているかを評価していると考えればよいでしょう。 元のデータでの再現学習も問題無く行えました。また日本語対応版もおおよそ元論文と同程度の精度が出ています。 要点2:軽量でCPUでも1ページ0.02s程度の時間で予測できる Core i7,8コアのCPU環境でも1ページ0.02s程度の時間で予測が可能

                                スクレイピング時に本文だけを抽出する最高精度ツールが優秀!【日本語版も公開】 - Qiita
                              • (Gスプレッドシート)文字列から数字を抽出する - いきなり答える備忘録

                                Googleスプレッドシートで、文字列に含まれる数字だけを取り出す方法についてです。 対象とするのは半角数字とします。数字は文字列として抽出し、0で始まる数字もそのまま抽出するものとします。取り出したい範囲に応じていくつかの方法を紹介します。 REGEXEXTRACT関数やREGEXREPLACE関数を使って、文字列から数字だけを取り出すことができます。 手順 サンプルデータと実行結果 すべての数字を取り出してつなげる 一連の数字ごとに抽出して記号で区切る 一連の数字ごとに抽出して各セルに分割する 数字のうち最初に現れる一連のものだけ抽出する 数字のうち最後に現れる一連のものだけ抽出する 数字のうち最初の1文字だけ抽出する 数字のうち最後の1文字だけ抽出する 全角数字やカンマ等の扱いについて 手順 サンプルデータと実行結果 B3:B9セルには全く同じ文字列が記録されています。 これに対し、

                                  (Gスプレッドシート)文字列から数字を抽出する - いきなり答える備忘録
                                • キーフレーズを抽出して遊ぶ - エムスリーテックブログ

                                  AI・機械学習チームで2021年新卒の氏家です。 この記事はエムスリーAdvent Calendar 2021の23日目の記事です。 最近チームでスタンディング&ステッパーが流行っているのでその流れに乗ろうと試みましたが、スタンディングの時点で挫折してしまいました。 さて、今回のテーマは自然言語処理です! AI・機械学習チームでは普段から自然言語処理をはじめとした機械学習を用いてプロダクトの開発・運用を行っています。 しかし、業務にあまり関係ない技術で遊びたい気持ちがあるのもまた事実。 そこで今回は、キーフレーズ抽出と呼ばれる技術に着目して、弊社に関連するデータに適用して遊んでみたいと思います。 キーフレーズ抽出とは 使用した手法 いざキーフレーズを抽出 テックブログ AskDoctors キーフレーズを使った応用 まとめ We are hiring! キーフレーズ抽出とは キーフレーズ抽

                                    キーフレーズを抽出して遊ぶ - エムスリーテックブログ
                                  • 【重要】かな漢字変換・ルビ振り・校正支援・キーフレーズ抽出API V2 リリースのお知らせ - Yahoo!デベロッパーネットワーク

                                    いつもテキスト解析Web APIをご利用いただきありがとうございます。 テキスト解析Web APIにおける一部APIの後継バージョン(V2)リリースと仕様変更についてお知らせいたします。 ■ 対象API かな漢字変換 ルビ振り 校正支援 キーフレーズ抽出 ■ 変更箇所 リクエストURLが変わります GETリクエストは廃止となり、POSTリクエストのみになります リクエストパラメータが変わります レスポンス形式・フィールドが共に変更になります V2の仕様の詳細につきましては以下のページをご覧ください。 かな漢字変換(V2) ルビ振り(V2) 校正支援(V2) キーフレーズ抽出(V2) V1終了予定時期につきましては2022年1月末を予定しております。 ご迷惑をおかけしますが、なにとぞご了承ください。 今後ともテキスト解析Web APIをよろしくお願いいたします。

                                      【重要】かな漢字変換・ルビ振り・校正支援・キーフレーズ抽出API V2 リリースのお知らせ - Yahoo!デベロッパーネットワーク
                                    • はじめての自然言語処理 Rasa NLU を用いた文書分類と固有表現抽出 | オブジェクトの広場

                                      前回は、単語のカウントや分散表現を用いて文書の類似性評価をする手法を紹介しました。今回はチャットボット構築の必須技術である NLU (Natural Language Understanding=自然言語理解) について OSS の Rasa NLU を題材に、 NLU とは何か、Rasa NLU の使用方法と日本語で利用する際のポイント、日本語データセットでの実験結果を紹介します。 1. 始めに 本記事では OSS の Rasa NLU を題材に NLU(自然言語理解)、特に文書分類と固有表現抽出について説明します。Rasa NLU の使用方法と日本語で利用する際のポイントを解説し、日本語のデータで精度評価を行った結果を紹介します。今回も各手法の数学的な細かい説明などは省くので概念的な考え方を理解してもらえればと思います。 2. NLU (Natural Language Underst

                                        はじめての自然言語処理 Rasa NLU を用いた文書分類と固有表現抽出 | オブジェクトの広場
                                      • 人事異動のデータ化の取り組み 〜 CamelotによるPDFの表データ抽出 - Sansan Tech Blog

                                        DSOC サービス開発部 GEES/JES/COEグループの松本です。 最近はコロナの影響で巣ごもりをしており、家の庭で芝生を育てています。 色々と手抜きをしてしまったがために生え揃いがまばらで、かわいい反面、芝生の上を裸足で歩けるようになるにはまだまだ時間がかかりそうです。気長に待ってみようと思います。 今日はSansanの機能の一つである、人事異動ニュースを支えるデータ化の取り組みについてご紹介したいと思います。 JES とは Sansanの機能の中に、人事異動ニュースと呼ばれる機能があります。 sin.sansan.com これは、所有する名刺に紐づく人物の人事異動が公開されたときにそれをニュースとして配信し、交換前に所有名刺の情報を最新情報に更新できるという機能です。 ニュースとして提供するために人事異動情報のデータ化を行っていますが、そのシステムがJESと呼ばれるもので、DSOC

                                          人事異動のデータ化の取り組み 〜 CamelotによるPDFの表データ抽出 - Sansan Tech Blog
                                        • メルカリの購入履歴をExcelへ。GASでGmailからデータを抽出して経理。

                                          メルカリの購入履歴をExcelへ。GASでGmailからデータを抽出して経理。 2019年12月26日 経理×IT, GAS(Google Apps Script) メルカリで買ったモノをExcelデータにしています。 使っているのは、Google Apps Script(GAS)=Googleのプログラミングツールです。 ※メルカリとGoogleスプレッドシート by Leica M10 メルカリの購入履歴の弱点 メルカリは、出品数も多く、安く手に入ることもあるので便利です。 ただ、何かを買えば、記録しておきたいもの。 (本来は) 経費にする場合の経理でも、プライベートの場合の家計簿でも、買った記録ができるかどうかが大事です。 振込であれば、振込履歴が残り、カードで払えばカードの履歴に残りますが、何を買ったかまでは残りません。 その買った店やサービスからデータを取り出す必要があるのです。

                                            メルカリの購入履歴をExcelへ。GASでGmailからデータを抽出して経理。
                                          • 市民のスマホ情報、抽出 イスラエル製機器使い 露、反体制派抑圧に利用 | 毎日新聞

                                            イスラエル企業が開発した、携帯電話から個人情報を抜き取る機器がロシアなどの強権的な国家や地域で使用されている。反体制派などの抑圧に利用されており、人権団体が強く非難している。 この企業はIT機器メーカー「サン電子」(本社・名古屋市)の子会社で、イスラエル中部ペタクチクバに本社があるサイバー関連企業「セレブライト」。携帯電話などから全てのメッセージや写真などを抽出する機器「UFED」を開発、販売している。 欧米の治安機関では通常、容疑者らの携帯から犯罪の証拠などを得るため、裁判所の許可を得てUFEDを使用する。だが法の支配が浸透していない国では、当局が恣意(しい)的に市民を拘束した上で、携帯から個人情報を抜き取るケースが出ている。

                                              市民のスマホ情報、抽出 イスラエル製機器使い 露、反体制派抑圧に利用 | 毎日新聞
                                            • クレイジー砂糖はある サトウキビを煮詰めて黒褐色の粘度のある塊を抽出し ..

                                              クレイジー砂糖はあるサトウキビを煮詰めて黒褐色の粘度のある塊を抽出し 煮沸した清潔な綿で包み、その上に重石を載せて、不純物となる余分な蜜を排出する 蜜を排出したら、水で練ってサラサラにする 再び煮沸した清潔な綿で包み、その上に重石を載せて、不純物となる余分な蜜を排出する これを合計5セット繰り返し、黒褐色だったものを真っ白な砂糖に昇華させたクレイジーな砂糖がある 名前を和三盆という クレイジー味噌はある主原料がソテツの実で作られた味噌がある ソテツの実には毒があり、本来は食べられない 水溶性の毒であるため、麹による発酵熟成の効能によって無毒化されやっと食べられるようにしたクレイジーな味噌だ 名前を蘇鉄味噌、別名なりみそという 世界は広い探せばクレイジーな何かを見つけることは意外と可能である 興味あれば色々調べて見聞を広めるといいだろう

                                                クレイジー砂糖はある サトウキビを煮詰めて黒褐色の粘度のある塊を抽出し ..
                                              • スプレッドシートでハイパーリンクからURLを抽出する方法は結局これが一番簡単なんじゃないかな? | 株式会社LIG(リグ)|DX支援・システム開発・Web制作

                                                スプレッドシートでは一括抽出できない? ところがどっこい、Googleセンセによると、ExcelでVBA組む方法が一般的なようで、現状スプレッドシートだけでなんとかするのは難しい※みたいなんですよね。 LIGではG Suiteを導入しているので、残念ながらExcel含めMicrosoftのソフトはPCに入っていません。入っていたとしてもバックオフィスなど一部のメンバーだけなんです。 「そんなんうそやん」とスプレッドシートの可能性を信じて、30分くらいあれこれ試してみたんですけど、だめでした。ちなみに無料で使えるExcel Online(エクセルオンライン)でやろうとしてログイン情報探してデータ作った挙げ句マクロが使えないことに気づいて諦めるまでに、さらに30分ほどかかっています。ここまできたら意地でも方法を見つけようと、追加で30分は無駄な時間を過ごしています。 スプレッドシートのハイパー

                                                  スプレッドシートでハイパーリンクからURLを抽出する方法は結局これが一番簡単なんじゃないかな? | 株式会社LIG(リグ)|DX支援・システム開発・Web制作
                                                • 【Excel】目視とコピペでクロス表から特定条件のデータを抽出するのは非効率!【いまさら聞けないExcelの使い方講座】

                                                    【Excel】目視とコピペでクロス表から特定条件のデータを抽出するのは非効率!【いまさら聞けないExcelの使い方講座】
                                                  • 4歳娘「パパ、20歳以上のユーザーを抽出して?」 - Qiita

                                                    続編もよろしくやで! ワイ「なに!?型のズレを吸収できるやと!?」 ワイ「なに!?flatMap()で有給取り放題やと!?」 ある日、ピクニックで訪れた山にて 娘(4歳)「パパ、見て!」 ワイ「なんや、娘ちゃん」 娘「あそこに、家族風のオブジェクトが落ちてるよ!」 const family = { mother: { name: "よめ太郎", age: 35 }, father: { name: "やめ太郎", age: 37 }, daughter: { name: "娘ちゃん", age: 4 } }; ワイ「おお、ほんまや!」 ワイ「mother、father、daughterの3人家族やな!」 娘「せっかくだから、この中から20歳以上のユーザーを抽出してみようよ!」 ワイ「おお!せっかくやからな!」 ワイ「やってみよか!」 ワイ「でも、家族のことをユーザーって呼ぶのはやめてな!」

                                                      4歳娘「パパ、20歳以上のユーザーを抽出して?」 - Qiita
                                                    • 【Techの道も一歩から】第38回「Streamlit で固有表現抽出の結果を表示する」 - Sansan Tech Blog

                                                      こんにちは。 DSOC R&D グループの高橋寛治です。 最近、部内で Streamlit による可視化を見かけるようになってきました。 Streamlit は、インタラクティブなデータの可視化に特化した Web アプリケーションを少ないコードで素早く提供することができる Python ライブラリです。 私自身は Web アプリケーションとしてデモ化する際に手慣れた Flask で書くことが多いです。 慣れているとはいえ時間を要するため、同じ結果を爆速で実現できるなら使わないわけにはいきません。 作業効率改善のために、固有表現抽出を題材にして使ってみることにしました。 今回 Streamlit で実現したいこと テキストエリアに入力されたテキストを解析し、解析結果を表に表示します。 入力エリアを準備する まずは、Streamlit をインストールし、ファイルを準備します。 $ pip in

                                                        【Techの道も一歩から】第38回「Streamlit で固有表現抽出の結果を表示する」 - Sansan Tech Blog
                                                      • 北欧気分が味わえる!2種類の抽出方法を選べるコーヒーが自慢のお洒落カフェ!『オスロコーヒー 五反田駅前店 (OSLO COFFEE)』 - たまのこの旅したい食したいブログ

                                                        みなさんこんにちは!たまのこです。 日本にいる皆さん!北欧に行きたいと思われたことはありますか? 殆どの方が行きたいと思われていることでしょう! しかし中々時間的にも金銭的にも行けないのが現実です。 僕もそうです。。笑 だが今回は北欧気分を味わえる北欧カフェが五反田にあるそうなので、来店する事にしました。 外観・店内の様子 メニュー 料理 味の感想 お店の情報 www.tamagonokodomo.com 外観・店内の様子 場所はここ!五反田駅からすぐに所にある『オスロコーヒー 五反田駅前店』です。 外観からお洒落で北欧感を感じさせる佇まいです。 店内に入るとテーブル席がたくさんあり、かなり奥行きのある創り。 僕の座った席は横に仕切りがあるタイプなので、プライベートが守られていて落ち着いて食事ができそう。 メニュー そしてコーヒーのかなりこだわりがある様で、コーヒーの抽出方法が異なっている

                                                          北欧気分が味わえる!2種類の抽出方法を選べるコーヒーが自慢のお洒落カフェ!『オスロコーヒー 五反田駅前店 (OSLO COFFEE)』 - たまのこの旅したい食したいブログ
                                                        • 『『めがねのあぶデカロケ地bot on Twitter: "つるの剛士が大坂なおみを叩いたってあったから 彼のツイートから『大坂なおみ』『大坂』『なおみ』『blm』『黒人』『差別』など関連ワードで検索抽出したけど、んなもん無かったんだが(困惑 https://t.co/XHtsh3UqVv"』へのコメント』へのコメント

                                                          世の中 めがねのあぶデカロケ地bot on Twitter: "つるの剛士が大坂なおみを叩いたってあったから 彼のツイートから『大坂なおみ』『大坂』『なおみ』『blm』『黒人』『差別』など関連ワードで検索抽出したけど、... 8 人がブックマーク・4 件のコメント

                                                            『『めがねのあぶデカロケ地bot on Twitter: "つるの剛士が大坂なおみを叩いたってあったから 彼のツイートから『大坂なおみ』『大坂』『なおみ』『blm』『黒人』『差別』など関連ワードで検索抽出したけど、んなもん無かったんだが(困惑 https://t.co/XHtsh3UqVv"』へのコメント』へのコメント
                                                          • 【Excel】エクセルで住所から都道府県名を一括抽出するテク【いまさら聞けないExcelの使い方講座】

                                                              【Excel】エクセルで住所から都道府県名を一括抽出するテク【いまさら聞けないExcelの使い方講座】
                                                            • Laravelを使ったAPI開発でController内のバリデーションをFormRequestに抽出して幸せになろう - NAKKA-Kの技術ブログ

                                                              私の開発しているプロジェクトでは Laravel 5.7 React/Redux を使って開発しています。 バックエンドのLaravelはAPIを実装しています。 LaravelでAPIを実装すると通常のwebで作るより処理が煩雑になる気がします。 その上、いろんな処理をControllerにまとめて書いてしまった経験はそれなりにあるのではないでしょうか? 今回はリクエストのバリデーション処理をControllerに書いている状態から、LaravelのFormRequestを使って責務を抽出した手順をご紹介します。 (軽く調べた感じLaravel5.5以降でないと違う書き方になるようです) Policyについての記事もあります。 nakka-k.hatenablog.com FormRequestとは Controllerにバリデーションを書いていた時 FormRequestを作成する バ

                                                                Laravelを使ったAPI開発でController内のバリデーションをFormRequestに抽出して幸せになろう - NAKKA-Kの技術ブログ
                                                              • 「ちょっといい抽出器具」でインスタントコーヒーやめました

                                                                2022年12月31日の記事を編集して再掲載しています。 きっかけはインスタントコーヒーを1日に5杯くらい飲むようになってたことでした。 目が冴えてくるのがやっぱりよくて、仕事中にコーヒーを常飲する感じになってたんですが、頭痛がしたり気持ち悪くなってくることも。ちょっと減らしたほうがいいな、と。 「1杯の満足度を上げる」 「分量を管理する」 これをやったら減らせるかな、と思い、やってみたのが事の始まりです。 意識の低いコーヒーの飲み方をやめたそれまでは飲みたくなったら適当にインスタントコーヒーをタンブラーに入れ、適当にお湯を注いでがぶ飲み、みたいなスタイルでした。考え得る中でもトップクラスに意識の低いコーヒーの飲み方だったなと今では思います。 ちょっといい珈琲抽出器具を買ってみたそんな雑なコーヒー習慣をやめ、「ちゃんと淹れる」ようにしてみたんです。 「アメリカンプレス」という抽出器具を買い

                                                                  「ちょっといい抽出器具」でインスタントコーヒーやめました
                                                                • 逆引き DataFrameのデータ抽出(選択)処理 - Qiita

                                                                  DataFrameのデータ抽出処理のまとめ。こういうのでいいんだよ的なものなので、細かい内容は他の方の記事を参考にしてください。データ入出力処理はこちら。 逆引き用の分類 何(インデックスor列名or値)を対象にどうやって(抽出条件)データを抽出したいのかにマッチする方法が何かを整理しています。おすすめの選択方法をリンク付きにしました。 抽出条件 インデックス(ラベル) 列名 dfの値

                                                                    逆引き DataFrameのデータ抽出(選択)処理 - Qiita
                                                                  • 【Python】sqlparseを使ってDDL以外のSQLファイルを抽出する | DevelopersIO

                                                                    データアナリティクス事業本部の貞松です。 最近、データ分析環境絡みで特定のプロジェクトに含まれるSQLファイルをパースして解析したい要件が発生しました。 本記事では、上記の要件に対応する為に使用したsqlparseというライブラリについてご紹介すると共に、sqlparseを使って、任意のディレクトリ配下のSQLファイルからDDL(CREATE TABLE)でないファイルを抽出する方法を解説します。 sqlparseとは sqlparseは非検証SQLパーサー(処理対象のSQL文の正当性は検証しない)のpythonライブラリです。 GitHub - andialbrecht/sqlparse: A non-validating SQL parser module for Python サポートされているPythonバージョンは3.4以降で、インストールはpipで行います。 pip insta

                                                                      【Python】sqlparseを使ってDDL以外のSQLファイルを抽出する | DevelopersIO
                                                                    • 清原達郎式「小型成長株投資」の候補240銘柄を抽出!ネットキャッシュ比率で浮かぶ割安株リスト

                                                                      あなたも億り人に!? 凄腕シニア投資家が教える 株式運用術 2024年から始動した「新NISA」を受け、投資熱が高まっている。より高いリターンを狙うなら、投資信託の積み立てだけでなく、個別株投資に挑むのも一手だ。その主役となりそうなのが、現役時代に蓄財した資産や退職金などで、投資の元手が豊富な50~80代個人。一方でどんな銘柄に投資すればよいのか、迷える人も多いだろう。同世代の歴戦の猛者たちが、「株式投資の極意」を直伝。87歳の現役トレーダーや、「伝説の投資家」清原達郎氏、退職金を200倍の40億円に増やした70代シニア、配当金&優待でホクホク老後生活を送る60代個人など、各種各様のスタイルで、虎の子の資産を殖やす術を伝授してもらう。 バックナンバー一覧 日本株展望や投資の心得などを説いた「伝説のサラリーマン投資家」清原達郎氏のインタビューに続き、本稿では、清原氏が実践してきた小型成長株投

                                                                        清原達郎式「小型成長株投資」の候補240銘柄を抽出!ネットキャッシュ比率で浮かぶ割安株リスト
                                                                      • 形態素解析の結果を利用してTF法により特徴抽出をする - Qiita

                                                                        はじめに 本記事では、文書分類器を実装するための特徴抽出方法としてのTF(Term Frequency method)法について解説する。 1. 形態素解析 文書分類では、文書内の単語の情報を利用する。日本語は英語のように単語の区切りが明示された分かち書き言語ではなく、非分かち書き言語であり、そのため、文書内の各文を単語に分割する必要がある。文を単語に分割し、各単語の品詞を推定することを形態素解析という。 ここでは、オープンソース形態素解析ソフトウェア MeCab(めかぶ)を使う. • http://taku910.github.io/mecab/ 2. 特徴抽出 分類問題を扱う際、一般に、データ中の、分類に利用する情報のことを特徴量と呼び、この特徴量をデータから抽出する作業を特徴抽出と呼ぶ。 文書の分類では、文書中の単語が特徴量として利用される。 文書内の各単語の出現頻度は、しばしば、単

                                                                          形態素解析の結果を利用してTF法により特徴抽出をする - Qiita
                                                                        • 既存の Aurora MySQL 互換クラスターの監査ログを有効化し CloudWatch Logs に出力して CloudWatch Logs Insights でログを抽出する(クエリする)方法 | DevelopersIO

                                                                          既存の Aurora MySQL 互換クラスターの監査ログを有効化し CloudWatch Logs に出力して CloudWatch Logs Insights でログを抽出する(クエリする)方法 既存の Aurora MySQL 互換クラスターの監査ログを有効化し CloudWatch Logs に出力して CloudWatch Logs Insights でログを抽出する(クエリする)方法を記載します。

                                                                            既存の Aurora MySQL 互換クラスターの監査ログを有効化し CloudWatch Logs に出力して CloudWatch Logs Insights でログを抽出する(クエリする)方法 | DevelopersIO
                                                                          • NEDO、今後取り組むべき12のAI技術開発を抽出した「AIアクションプラン」を公表

                                                                            NEDO、今後取り組むべき12のAI技術開発を抽出した「AIアクションプラン」を公表 抽出したAI技術の事業化へ向けた検討を推進 NEDOは、人工知能(AI)技術戦略の策定およびプロジェクトの早期開始に向けて「人工知能(AI)技術分野における大局的な研究開発のアクションプラン」(AIアクションプラン)を公表した。 本プランは、AI技術や密接に関係する技術、さらにAIを含む新技術について開発の方向性などを大局的に検討・整理したもの。2016年に公開した「次世代人工知能技術社会実装ビジョン」を参考に、学術界・産業界の有識者で構成された「AIアクションプラン策定委員会」の議論により策定された。 NEDOによれば、AI技術はこれまで深層学習の隆盛を受けて大きく発展してきたが、今後10年は意味理解のAIの開発が求められているという。同様に、今後10年を見据えて「部分最適化から全体最適化/人とAIの関

                                                                              NEDO、今後取り組むべき12のAI技術開発を抽出した「AIアクションプラン」を公表
                                                                            • 商用利用可能な個人情報抽出向けデータセットやAIモデルを公開、Nishika

                                                                              AI(Artificial Intelligence:人工知能)に関するコンサルティングや開発サービスを提供するNishikaは8月1日、文章の中から氏名や組織名、地名などの個人情報を機械学習により自動で抽出するためのデータセット、学習済みAIモデル、ソースコードの提供を開始すると発表した。なお、公開期間は2022年10月31日までとのことだ。 同社が今回公開するのは、約200の判例文に2万7000以上の個人情報(人名、組織名・施設名・役職名、地名、時間、商品名など)のラベルが付与された独自データセットだ。データは、同社が収集した判例文のpdfデータをテキスト化し、クレンジング後にテキストアノテーションツールdoccanoを用いて原文のマスキング箇所に対してアノテーションを行った後、架空の名称で置換することにより作成している。 アノテーションを行ったのは、PERSON(人名)、ORGFAC

                                                                                商用利用可能な個人情報抽出向けデータセットやAIモデルを公開、Nishika
                                                                              • LangChain `with_structured_output` メソッドによる構造化データ抽出

                                                                                これは何? 昨日、ALGOMATIC社のerukitiさんの記事がバズっていました。スキーマを用いてプロンプト生成すると構造化データを取り出しやすいよと言うお話でした。便利ですよねぇ。 LangChainの比較的新しいメソッド(with_structured_output)を利用すると似たような内容を比較的簡単に行えます。あまり知られていないかもしれないので、備忘録がてら雑にまとめてみます。(備忘録なのでLangChainのことは詳細に説明しません、スミマセン🙇) with_structured_output メソッドとは with_structured_output メソッドは、LangChain で構造化データ抽出を行うための統一されたインターフェースです。以下の2ステップで利用できます。 構造化データをPydanticで定義する その定義を.with_structured_outp

                                                                                  LangChain `with_structured_output` メソッドによる構造化データ抽出
                                                                                • 【検索雑談】Search Consoleでひらがな or カタカナ or 漢字のみのクエリを抽出する方法

                                                                                  (この記事は1分で読めます)※10分で書きました Search Consoleの正規表現でひらがなのみ、カタカナのみ、漢字のみのクエリ抽出の方法があるというのを知ったのでメモ。 クエリの抽出 > 正規表現に一致 ひらがな・・・

                                                                                    【検索雑談】Search Consoleでひらがな or カタカナ or 漢字のみのクエリを抽出する方法