並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

X-RATEの検索結果1 - 12 件 / 12件

  • Windows 10は好きな文章を合成音声で簡単に喋らせることができる (1/2)

    こんな簡単なコマンドで、Windowsは「しゃべって」くれる。画面キャプチャーでは声をお聞かせすることはできないが、お手元のWindows PowerShellで試してほしい スクリプトを作るとき、ちょっとユーザーの気を引きたくなることがある。たとえば、少し時間のかかる処理をするときに、終わったことを通知したい場合などだ。あるいは、実行後にすこし時間が経過してからエラーを通知するような場合にも、気を引きたくなることがある。 こんなとき昔のコンピューターならベル音やビープ音を鳴らすのが一般的だった。端末装置からコンピューターを使っていた頃、Ctrl+Gを出力するとベル音が鳴った。マイクロプロセッサが使われ始め、パソコンの原型ができあがった頃、BEEPと呼ばれる機能ができた。プログラムでビットをオンオフし、これをスピーカーに接続することで音を出していた。今もマザーボード上には、そのための小さな

      Windows 10は好きな文章を合成音声で簡単に喋らせることができる (1/2)
    • APIに利用制限をかけるとしたらどういうやりかたがあるのか - おもしろwebサービス開発日記

      この記事はSmartHR Advent Calendar 2020 11日目の記事です。 僕のお手伝いしているSmartHRでは、毎週バックエンドエンジニアが集まり、技術的なトピックについて共有、相談しあうミーティングを開催しています。そのミーティングでは僕がTipsなどを共有するコーナーが常設されています*1。 このエントリでは、そのコーナーで共有した内容をひとつ紹介します。 APIに制限をかける方法について APIを外部に提供するとき、一定の制限をかけてユーザがAPIを乱用するのを防ぐことはよくあることではないでしょうか。素直に考えると「1時間に5000回までAPIを実行できる」のようなやり方を思いつきますね。GitHubのAPIもそのやり方ですし、SmartHRのAPIも同様です。 じゃあそれでいいのでは。となるかもしれませんが少し待ってください。いろんなクライアントがAPIを大量に

        APIに利用制限をかけるとしたらどういうやりかたがあるのか - おもしろwebサービス開発日記
      • OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

        本日、OpenAIの最高技術責任者(CTO)であるMira Murati(ミラ・ムラティ)氏は、Spring Updatesイベントで、新しい強力なマルチモーダル基礎大規模言語モデル(LLM)であるGPT-4o(GPT-4 Omniの略)を発表した。これは今後数週間で全ての無料ChatGPTユーザーに提供され、MacOS用のChatGPTデスクトップアプリ(後にWindows向けも)も発表された。これにより、ユーザーはウェブやモバイルアプリ外でもアクセス可能になる。 「GPT-4oは音声、テキスト、ビジョンを統合して推論する」とMurati氏は述べた。これは、ChatGPTスマートフォンアプリでユーザーが撮影したリアルタイム動画を受け入れ分析する機能も含まれるが、この機能はまだ一般公開されていない。 「まるで魔法のよう。素晴らしいことですが、私たちはその神秘性を取り除き、みなさんにそれを試

          OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
        • Pythonで音を鳴らす

          はじめに なにか音を鳴らすプログラムを組みたくなる時があります。以下ではJupyter Notebook (Google Colab)上で音を鳴らすサンプルです。 ソースコードは以下においてあります。 kaityo256/python_play_sound Google Colabで開いてそのまま試すこともできます。 音の鳴らし方 音を鳴らすには、波形データをNumPy配列で作ってIPython.display.Audioに突っ込むのが簡単です。例えばサンプリングレート48kHz、長さ1秒で、基準となるラの音(440Hz)を鳴らすには、以下のようなコードになります。 import numpy as np import IPython rate = 48000 duration = 1.0 t = np.linspace(0., duration, int(rate*duration)) x

            Pythonで音を鳴らす
          • Te koop Unisom. Hoe en waar Unisom te kopen voor Visa | onze11.nl

            Europese apotheek Te koop Unisom Klik hier – http://url-qr.tk/Unisom – ga naar de apotheek – Lage prijs voor kwaliteitsgeneesmiddelen – Snelle levering en volledige privacy – Bonuspillen en grote kortingen voor elke bestelling – Uw volledige tevredenheid is gegarandeerd of uw geld wordt geretourneerd – 100% legale producten. – Kwaliteit en farmaceutische dosering. – Snelle levering gegarandeerd. –

            • oss-sec: [CVE-2019-14899] Inferring and hijacking VPN-tunneled TCP connections.

              [CVE-2019-14899] Inferring and hijacking VPN-tunneled TCP connections. From: "William J. Tolley" <william () breakpointingbad com> Date: Wed, 04 Dec 2019 19:37:07 -0700 Hi all, I am reporting a vulnerability that exists on most Linux distros, and other *nix operating systems which allows a network adjacent attacker to determine if another user is connected to a VPN, the virtual IP address they hav

                oss-sec: [CVE-2019-14899] Inferring and hijacking VPN-tunneled TCP connections.
              • Word Cloudでツイートを可視化してみた(python) - Qiita

                はじめに 現場でデータサイエンスチームが文章を形態素解析して、ビジュアル化しているのを見て自分でもやってみたいと思いました。 そのため、今回はtwitterのツイート情報取得して、Word Cloudで可視化をしてみました。 言語はpythonを使用しました。 ソースコードはこちらに上げております。 https://github.com/nsuzuki7713/twitter-analysis 用語 形態素解析 文章・フレーズを「意味を持つ最小限の単位」に分解すること。 例えば、 「私は会社でプログラミングをします」 という文章を形態素解析を行うと、 「私 / は / 会社 / で / プログラミング / を / し / ます」 のように最小限の単位に分割できます。 文章中で出現頻度が高い単語を複数選び出し、その頻度に応じた大きさで図示する手法。 文字の大きさだけでなく、色、字体、向きに変

                  Word Cloudでツイートを可視化してみた(python) - Qiita
                • PythonでTwitterスクレイピング&データフレーム化 - Qiita

                  なぜこの記事を書いたか twitter感情分析に必要なデータの準備、すなわち 「(1)PythonでTwitterスクレイピング⇨**(2)スクレイピング結果をデータフレームとして出力**」をシームレスに解説している記事がなかったからです。 「Twiiterスクレイピング」や「Pythonで感情分析(ネガポジ分析)」、「データフレーム」はそれぞれポピュラーなテーマなので単体ではよく解説記事を見かけます。しかしどれも部分的で、当時初心者レベルの自分には痒いところに手が届かず、中々苦労しました。 本記事の内容 本記事のコードをコピペすればそのまま任意のキーワードやユーザーからツイートを取得、データフレームとして出力が出来ます。ただし、TwiiterAPIを取得していることが前提です。 TwitterAPI取得方法はこちら ##注意点 ・スクレイピングはTwiiter社の規約に則って行いましょう

                    PythonでTwitterスクレイピング&データフレーム化 - Qiita
                  • Te koop Sominex. Koop nachts online. - Council for Children's Rights

                    Europese apotheek http://url-qr.tk/Sominex – Klik hier — ga naar de apotheek – Lage prijs voor kwaliteitsgeneesmiddelen – 100% legale producten. – Snelle levering gegarandeerd. – Snelle levering en volledige privacy – Verschillende betaalmethoden: MasterCard /PayPal / BitCoin/Visa / AMEX – Uw volledige tevredenheid is gegarandeerd of uw geld wordt geretourneerd – Bonuspillen en grote kortingen voo

                    • 「コロナ」に関するツイートをpythonで収集して、「コロナ」の影響で話題になった単語を自動検出する - Qiita

                      Twitterデータのpythonでの収集方法と、時系列のテキストデータに対するバースト検出方法の説明です。 技術的には、以下の過去記事と同様です。 過去記事: 「クッパ姫」に関するツイートをpythonで収集して、バースト検出してみた https://qiita.com/pocket_kyoto/items/de4b512b8212e53bbba3 この時に採用した方法の汎用性を確認するために、2020年3月10日時点で話題の「コロナ」をキーワードとして、Twitterデータの収集と、「コロナ」と共起する語のバースト検出を実践してみました。 「コロナ」に関するツイートを収集する 収集方法は、基本的に過去記事とほぼ同じです。 まずは、ライブラリの読み込みなど、ツイート収集の準備を行います。 # Twitterデータ収集用のログインキーの情報 KEYS = { # 自分のアカウントで入手した

                        「コロナ」に関するツイートをpythonで収集して、「コロナ」の影響で話題になった単語を自動検出する - Qiita
                      • Twitter APIを使ってリツイートや特定のツイートを取得する方法2選 - Qiita

                        Twitterの投稿を取得したいと考える人は多いでしょう。PythonとTwitter APIを組み合わせることで、ツイートを手軽に取得することが可能です。 この記事では、取得したいツイートの数に応じて2パターンのコードを記載しています。 Google Colaboratoryを利用すると、環境構築の手間なくコードを実行できるので、ぜひ試してみてください。 なお、Twitter APIの取得方法については言及していませんのでご了承ください。 Twitter APIを取得する方法 この記事が参考になりましたので、この手順に従って申請を出せばOKです。 PythonでTwitter APIを利用する方法を現役エンジニアが解説【初心者向け】 少量のツイートを取得したい場合 取得したいツイートの数が少ない場合はシンプルなコードの記述で済みます。 以下参照してください。 import tweepy

                          Twitter APIを使ってリツイートや特定のツイートを取得する方法2選 - Qiita
                        • 大容量データの音声認識(CNN)をCPU上でやった作業ログ【機械学習・ディープラーニング】 - アプリとサービスのすすめ

                          今回は音声認識のデータセット「ESC-50」をCNNで分類した。 特にこだわったのが、GPUでも普通にやったらOOMエラーが出るくらいの大容量のデータセットを、kerasのfit_generatorメソッドを使ってCPU上でもできるようにしたこと。 あとは音声認識は触れたことなかったので、前処理から学習するまでの作業ログ。 目次 1.音声データセット(ESC-50) 2.音声データの水増し(Augmentation) 3.水増した音声データの保存と読み込み 4.データ前処理とCPU上で学習(CNN) 1.音声データセット(ESC-50) 今回は音声データセット「ESC-50」を使う。 ESC-50の音声は環境音・自然音からなる声を含まない音。 動物の鳴き声、雨の音、人間の咳、時計のアラーム、エンジン音など50クラス。それをCNNで分類してみる。 ファイル形式は拡張子が.wavの音声。サイト

                            大容量データの音声認識(CNN)をCPU上でやった作業ログ【機械学習・ディープラーニング】 - アプリとサービスのすすめ
                          1