並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 23 件 / 23件

新着順 人気順

selenium python find element by class nameの検索結果1 - 23 件 / 23件

  • OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z

    凄いものが出てきてしまった。 ChatGPTの「Code Interpreter」が話題になったが、あれはあくまでクラウド上で動いているだけ。それを模してローカルで動作するようになった「Open Interpreter」は、衝撃的な成果である。 Open Interpreterのインストールは簡単。コマンド一発だ $ pip install open-interpreter起動も簡単 $ interpreter -yこれだけでOK。 あとはなんでもやってくれる。 たとえばどんなことができるのかというと、「AppleとMetaの株価の推移をグラフ化してくれ」と言うとネットから自動的に情報をとってきてPythonコード書いてグラフをプロットしてくれる。 凄いのは、ローカルで動くのでたとえばApplescriptを使ってmacOSで動いているアプリを直接起動したり操作したりできる。「Keynot

      OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z
    • ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成出来たので感想とコツ - Qiita

      今回やりたかったこと 目標:ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成 するにはどうしたらいいのか、ChatGPT のハードルとかコツとかを知りたい。 ※最終的なプロンプトの入力と出力の全文は本ページ下部に貼り付けてます。 作ったもの概要 保険組合のウォーキングイベントの会社内の3チームの歩数進捗の slack への自動投稿 bot を作成しました。 処理は大きく2つに分かれています。 ウォーキングイベントサイトから歩数をスクレイピング&スプシへアップロード スプシの GAS で投稿文字列作成& slack へ自動投稿 今回 ChatGPT でやったのは1の方です。 2は前回半年前開催分のコードをほぼそのまま流用しました。 運良く(?)今回のタイミングでウォーキングイベントのサービスサイトが変わり、 HTML がまるっと変わり1のスクレイピングコードは作り直しが必

        ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成出来たので感想とコツ - Qiita
      • 各業界でのデータサイエンスの活用について調べてみた(随時追加) – かものはしの分析ブログ

        都内の事業会社で分析やWebマーケティングの仕事をしています。大学・大学院では経済学を通じて統計解析を行うなどしておりました。企業に勤めてからは、機械学習やテキストマイニング、クローリング技術などに関心を持っています。 Twitterアカウント Mr_Sakaue( SKUE ) GitHub 読書メーター ほしいものリスト 仕事で、いろんな会社でデータサイエンスってどう使われているのですか?と聞かれることがあり、自分としてはなんとなくしか掴めていないな、知ったかぶりしたくないなと思うところがあったので、やや手厚くリサーチをしてみようと思いました。 2022/3/6の段階では11つの市場しかないですが、最終的には30市場を目指します。 【2021/11/27追記】 公開したところ、それなりにこの記事に関心を持ってくださった方が多かったようなので、少しずつ事例を埋めていこうと思います。 業界

          各業界でのデータサイエンスの活用について調べてみた(随時追加) – かものはしの分析ブログ
        • ハローワークの求人情報をスクレイピング(Python + Selenium + BeautifulSoup) - ai_makerの日記

          この記事は、以下のハローワークインターネットサービスから求人情報を自動で取得する試みを記録したものです: www.hellowork.mhlw.go.jp まずは、ソースコードと実行結果をお見せし、後ほどこの記事を書いた経緯などを話します。 ソースコード:HelloWork_Scraping_ST.py from selenium import webdriver from selenium.webdriver.support.ui import Select import time from bs4 import BeautifulSoup import re # ハローワークインターネットサービスのURL url = "https://www.hellowork.mhlw.go.jp/" # 以下からご自分で使用しているChromeのバージョンに合ったChromeDriverをダウンロ

            ハローワークの求人情報をスクレイピング(Python + Selenium + BeautifulSoup) - ai_makerの日記
          • データ収集から機械学習まで全て行って競馬の予測をしてみた

            概要 ※ Qiitaから移行して、一部追記しました(さらに追記の項を参照) 元タイトル:データ収集からディープラーニングまで全て行って競馬の予測をしてみた 某T大学で情報系を専攻している学生です。Qiitaの記事を色々見ていたら、こんな記事を発見。 ディープラーニングさえあれば、競馬で回収率100%を超えられる この記事の回収率100%達成に関しては、購入シミュレーションした馬券の数が少ないので、他の期間でも成立するのかはわかりません。ソースコードも有料なのでどうやっているのかの詳細もわかりません。しかし、自分で競馬予測をしてみても面白そうだと思ったので、勉強するつもりで実際にやってみました。 データ収集・分析・予測のすべてを行うことになるのでかなり勉強になります。 なぜ競馬なのか? もしかしたらお金になるかもしれないという欲もありましたが、競馬は控除率が高いらしいのであまり期待はできませ

              データ収集から機械学習まで全て行って競馬の予測をしてみた
            • 【Python Selenium】#shadow-rootのスクレイピング方法 - まろブログ

              最近趣味でPython のSeleniumを使ってスクレイピングしているんだが なぜか要素が取得できないことがある。 技術的な原因としては 以下2点のことがあるみたい。 取得したい要素にiframeが使われている 取得したい要素がshadow-rootで囲まれている この内、「1.iframeが含まれている場合のスクレイピング」については ネットでググれば大抵のこと書いてあるから割愛したい。 ここでは「2. shadow-rootが使われた場合のスクレイピング」についてまとめる。 ちなみに私自身、ITエンジニアでもないタダのド素人だから 素人目にみてわかるように書きたいと思う。 ※玄人の人は許してね ちなみにshadow-root攻略に3日かかった そのくらい希少価値があるものだと思いたい。 1. shadow-rootについて 2.shadow-root内のスクレイピング方法 下準備 3

                【Python Selenium】#shadow-rootのスクレイピング方法 - まろブログ
              • Selenium入門 Pythonでブラウザを自動化したい方必読! - AI Academy Media

                SeleniumとChromeDriver SeleniumはWebブラウザで行うクリック操作やキーボード入力などをプログラム上から自動で操作できるようにしたライブラリで ChromeDriverはChromeブラウザをプログラムで動かす為のドライバーです。 この2つを使うことで、SeleniumでChromeブラウザを操作してログインすることが可能です。 またこの2つを組み合わせて使うことで、次のことが可能になります。 ・スクレイピング ・ブラウザの自動操作(次へボタンや購入ボタンなどを自動で押すなど) ・システムの自動テスト ・非同期サイトのスクレイピング Seleniumのインストールは次のようにターミナルおよびコマンドプロントで打ち込み実行することで、インストール出来ます。 pip install selenium Chrome Driverのインストールは下記リンクから飛べます。

                  Selenium入門 Pythonでブラウザを自動化したい方必読! - AI Academy Media
                • ハローワークから求人情報をスクレイピングする

                  Python + Selenium + Beautiful Soupでハロワをスクレイピング Python3でSelenium(ChromeDriver)とBeautiful Soupを使って、ハローワークの求人情報を取得する方法についてです。今回は東京都千代田区の求人情報を取得しようと思います。 ハローワーク 実装方法 まず最初にライブラリを読み込みます。 from selenium import webdriver from selenium.webdriver.support.ui import Select import time from bs4 import BeautifulSoup Chrome Driverを起動し、ハローワークのトップページにアクセスさせます。 url = "https://www.hellowork.mhlw.go.jp/" driver = webd

                    ハローワークから求人情報をスクレイピングする
                  • WebスクレイピングでGoogleの検索結果を取得しよう!(Python)

                    Pythonで作れる代表的なプログラムとしてWebスクレイピングが挙げられます。これは主にライブラリを活用して実行するので、Pythonを覚えたての初心者でも簡単に作ることが出来ます。 今回はPythonを使い、Googleの検索結果に表示された記事のタイトル・URLをExcelに書き出すプログラムの作り方を紹介します。 Webスクレイピングとは? Webスクレイピングとは、Web上のサイトから任意の情報を自動で取得する技術のこと。出したデータを加工してファイルとして出力したり、データベース上にデータを溜めることもできます。 一般的にはホームページから大量の情報を取得したい時に使われますが、今回のように検索エンジンの結果一覧にもスクレイピングを実行することが可能です。 ブログやホームページを運営するうえで欠かせない作業が、ターゲットキーワードによる検索結果の把握です。上位表示されている競合

                      WebスクレイピングでGoogleの検索結果を取得しよう!(Python)
                    • 【Selenium】ドロップダウン/selectタグ選択,取得方法まとめ - ゆうきのせかい

                      Python × Selenium × ChromeDriverで、select/optionタグで構成されるドロップダウン(プルダウン)リストを選択状態にしたり・値を取得する方法をまとめました。 SeleniumのSelectモジュールを使うと簡単に操作できます。 こんなHTMLを前提として書いていきます。 HTML<!DOCTYPE html> <html> <select name="test" id="dropdown"> <option value="1">1番目</option> <option value="2">2番目</option> <option value="3">3番目</option> <option value="4">4番目</option> <option value="5">5番目</option> <option value="6">6番目</opti

                        【Selenium】ドロップダウン/selectタグ選択,取得方法まとめ - ゆうきのせかい
                      • 【Network pharmacology】PubChemを用いた漢方成分の抽出【In silico創薬】 - LabCode

                        4. ChromeDriverのインストール(Macユーザー向け) brew install chromedriver このコマンドは Mac のユーザーが selenium を使うために必要なドライバ chromedriver をインストールします。 brew はMac用のパッケージ管理ソフトです。 chromedriver は、SeleniumがGoogle Chromeを操作するために必要な「仲介役」です。 注意:Chrome本体のバージョンとドライバのバージョンを合わせる必要があります。 Windowsの場合は、公式サイトからChromeDriverをダウンロードしてパスを通す必要があります。 5. 必要なライブラリのインストール② pip install selenium pandas tqdm 一部重複していますが問題ありません(すでに入っていればスキップされます)。ここでは

                        • Testing web applications hosted in a private network using AWS Device Farm | Amazon Web Services

                          Front-End Web & Mobile Testing web applications hosted in a private network using AWS Device Farm AWS Device Farm offers an elastic Selenium Grid in the cloud that provides instant access to different versions of Chrome, Firefox, Internet Explorer, and Microsoft Edge browsers running on Windows servers. Today, thousands of web developers are leveraging Device Farm’s Grid to verify that their appli

                            Testing web applications hosted in a private network using AWS Device Farm | Amazon Web Services
                          • Pythonでseleniumを使う! - Qiita

                            TL;DR seleniumの使い方 Chromeで起動方法 WebDriverインストール chromeの設定画面でchromeのバージョンを確認します。 こちらからChromeのWebDriverをダウンロードします。 先程確認したバージョンを同じものを選びます。 OSで選ぶ。 プログラミング ライブラリインストール from time import sleep from selenium import webdriver def main(): options = webdriver.ChromeOptions() driver_path = "./chromedriver" driver = webdriver.Chrome(executable_path=driver_path, options=options) driver.get("https://www.yahoo.co.

                              Pythonでseleniumを使う! - Qiita
                            • WEB+DB PRESS 総集編を有効活用するためのPythonスクレイピング - Qiita

                              WEB+DB PRESS という雑誌はご存知かと思います。 WEB+DB PRESSは2021年7月にvol.120を記念し、それまでの全号をダウンロードできる特典がついた総集編が刊行されました。 WEB+DB PRESS総集編[Vol.1~120] (WEB+DB PRESSプラスシリーズ) これまでの全ての記事が3000円で読めるならばと思い、私も先日Amazonでポチってしまいましたが、有効な使い方いまいち分からず放置してしまっています。 そこで最近勉強し始めたSeleniumを使って記事タイトルを取得してExcelで表にしちゃおう!というのが今回の記事内容です。 環境 Python 3.9 selenium 4.2.0 openpyxl 3.0.9 コード to_excel 関数内のExcel の出力先ディレクトリと、CHROMEDRIVERを変えれば動くと思います。 import

                                WEB+DB PRESS 総集編を有効活用するためのPythonスクレイピング - Qiita
                              • 便利なPythonモジュールの一覧!おすすめ外部ライブラリも紹介 - アンドエンジニア - エンジニアのこと、エンジニアから。

                                この記事でわかること モジュールを使いこなすには、どのようなモジュールが存在するかを知ることが重要 標準モジュールはプリインストールされていて、すぐに使える汎用的な機能が多い 外部モジュールはPyPIからインストールが必要で、専門性が高い機能が多い 【関連記事】【Pythonのライブラリ管理ツール】pipインストールを徹底解説!Windowsでも簡単? 【関連記事】PythonのコードをEXE化するには? PyInstallerやその他ツールの特徴や使い方 【関連記事】Pythonで自動化できること7選!面倒な作業を効率化してより便利に 目次 1. Pythonのモジュールとは 1-1. Pythonのモジュールを活用するには 2. Pythonの便利な標準モジュール一覧 2-1. datetime(日付・時刻) 2-2. calendar(カレンダー) 2-3. re(正規表現) 2-4

                                  便利なPythonモジュールの一覧!おすすめ外部ライブラリも紹介 - アンドエンジニア - エンジニアのこと、エンジニアから。
                                • Using GPT-4o for web scraping

                                  tl;dr; show me the demo and source code! I’m pretty excited about the new structured outputs feature in OpenAI’s API so I took it for a spin and developed an AI-assisted web scraper. This post summarizes my learnings. Asking GPT-4o to scrape data The first experiment was to straight ask GPT-4o to extract the data from an HTML string, so I used the new structured outputs feature with the following

                                  • 【Python】Google画像検索からオリジナル画像を根こそぎダウンロード - Qiita

                                    はじめに 以前、Google画像検索からサムネ画像をダウンロードする方法を書きましたが、 この度、画像を詳細表示(検索結果を1度クリックした状態)すれば、元画像のリンクがページソース上に記載される、ということが判明しました。 この仕様を生かしてオリジナル画像をダウンロードしていきましょう(Googleがつよいからって負担はかけすぎないように注意しましょう。) プログラムの流れ SeleniumでGoogle画像検索 ↓ 1つ目の画像を詳細表示後、右カーソルキーを押下しまくる ↓ オリジナル画像のリンクを取得 ↓ ダウンロード 実装 Selenium, requestsあたりはインストールしてなかったらしてください。 ChromeDriverは実行パスにある設定になってるんで、適宜書き換えてください(インポート文のすぐ下)。 リファクタリングとかはしてないので汚いですが勘弁。 from se

                                      【Python】Google画像検索からオリジナル画像を根こそぎダウンロード - Qiita
                                    • 【python】メンドクサイを自動にさせてみた3【SlackBot編】 - Qiita

                                      この記事について 最近iOSアプリで20円ばかり儲けた凄腕プログラマー(自称)がサラリーマンしている仕事の一部がめんどくさかったり、誰かの人的ミスのせいでなんか怒られたりと嫌になりそうなことを、プログラムを作ってサクッと解決★ 今回は送迎の有無をpythonを使って判別し、slackに放り投げて通知を送ることで、見落としミスがなくなるようにしました。 背景には、今時宿泊者名簿をイチイチ紙に出力して、今日の送迎の有無を確認しているのですが、その出力するシステムがツギハギだらけのもので、予期せぬ動作をすることがあります。 今回は、送迎あり・なしのラジオボタンがあるのですが、ありのボタンを押しても、その下にある備考欄が空欄だと、紙に出力されないというわけわかんない不具合がありました。 何言ってるのかわからないかと思いますが、私にもわかりません。 何をした? 1.pythonを使います。 2.se

                                        【python】メンドクサイを自動にさせてみた3【SlackBot編】 - Qiita
                                      • Speaker Deckのスライド更新はPythonにやらせよう - Qiita

                                        import logging import os import sys import time import chromedriver_binary from selenium import webdriver from selenium.common.exceptions import TimeoutException from selenium.webdriver.common.by import By from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.support.ui import WebDriverWait SLIDE_URL = "test-auto-upload" FILE_PATH = "/home/user/Downloads/test-aut

                                          Speaker Deckのスライド更新はPythonにやらせよう - Qiita
                                        • Teamsの個人チャットへ自動送信する(2段階認証回避) - Qiita

                                          はじめに お久しぶりです。プロコン間に合いませんでした。次はきっと間に合わせます(次があったら)。 今回の記事は、Teamsの個人チャットへ、メッセージを自動送信するプログラムの作成について書いたものです。バイト先で必要になったので、作りました。 意外と躓きポイントがあったので大変でした。躓いたのは、ログイン(2段階認証)と、seleniumの要素の取得(classでfindする時に空白を含んではいけない)です。一応、githubにプログラムを公開しておきます。使う人がいればですが、好きに使ってください。 概要 本記事で解説する手法は、「Teamsの個人チャットへメッセージを自動送信する」ものである。 従来のTeasmへ自動送信する手段としてIncoming Webhook[1]というツールがあるが、チーム単位でしか操作できない特徴があり、自動送信される相手はそのチームに参加する必要がある

                                            Teamsの個人チャットへ自動送信する(2段階認証回避) - Qiita
                                          • 【Pythonコード解説】Seleniumで国会会議録検索システムをスクレイピングしてみる

                                            国会会議録検索システムのサイト構造を確認するまずはスクレイピングを始まる前の下調べです。 今回のデータ収集の対象サイトとなる国会会議録検索システムのサイト構造について少しみておきます。 トップページを確認するトップページを見ると、このように検索条件を設定できるページが確認できます。 さらに検索ボタンの右にある「詳細検索」をクリックするとさらに細かい条件指定ができるようになります。 各検索条件にはIDがついているそして、ここがSeleniumでスクレイピングする際のポイントになってくるところになりますが、それぞれの条件指定用のボックスのソースコードを確認すると、IDが振られていることが確認できます。 例えば、発言者名の入力箇所にはspnmというIDがあります。 このIDを指定してあげれば、Seleniumを介して任意の箇所に任意の文字を入力することができるようになります。 条件を指定して、最

                                              【Pythonコード解説】Seleniumで国会会議録検索システムをスクレイピングしてみる
                                            • Webアプリケーションを自動で操作してみよう | へっぽこ実験ブログ

                                              自動操作を行う場合、id、name、classなどを利用して要素を指定することになるので、属性値をメモしておきましょう。 5.同様にボタンについても属性を調べます。その結果は以下のようになります。 <input class="gNO89b" value="Google 検索" aria-label="Google 検索" name="btnK" type="submit" data-ved="0ahUKEwiC0u6iu4nlAhXwyIsBHWwTBHcQ4dUDCAo"> 属性 値 ここで調べた属性を利用して要素を特定して自動操作を行うことになります。。 また、今回はChromeでのやり方を紹介しましたが、他のブラウザでも同様のことが可能です。同じWebアプリケーションを使用していてもブラウザによって出力される内容が異なる可能性もあるので、自動操作を行うブラウザを使用して要素を調べるよ

                                                Webアプリケーションを自動で操作してみよう | へっぽこ実験ブログ
                                              • 【Selenium】ヘッドレスモード時だけ"element not interactable"になる - ゆうきのせかい

                                                Python × Selenium × ChromeDriverでブラウザ操作をしようとして、 通常のブラウザモードで起動すると、処理成功headlessオプションで起動すると、決まってエラー(例外)になるという事象が起きました。 具体的に発生した例外は以下「ElementNotInteractableException: Message: element not interactable」というものです。 Traceback (most recent call last): ...省略... File "/opt/anaconda3/lib/python3.7/site-packages/selenium/webdriver/remote/webelement.py", line 479, in send_keys 'value': keys_to_typing(value)}) Fil

                                                  【Selenium】ヘッドレスモード時だけ"element not interactable"になる - ゆうきのせかい
                                                1