並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 50件

新着順 人気順

selenium webdriver python find elementの検索結果1 - 40 件 / 50件

  • OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z

    凄いものが出てきてしまった。 ChatGPTの「Code Interpreter」が話題になったが、あれはあくまでクラウド上で動いているだけ。それを模してローカルで動作するようになった「Open Interpreter」は、衝撃的な成果である。 Open Interpreterのインストールは簡単。コマンド一発だ $ pip install open-interpreter起動も簡単 $ interpreter -yこれだけでOK。 あとはなんでもやってくれる。 たとえばどんなことができるのかというと、「AppleとMetaの株価の推移をグラフ化してくれ」と言うとネットから自動的に情報をとってきてPythonコード書いてグラフをプロットしてくれる。 凄いのは、ローカルで動くのでたとえばApplescriptを使ってmacOSで動いているアプリを直接起動したり操作したりできる。「Keynot

      OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z
    • ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成出来たので感想とコツ - Qiita

      今回やりたかったこと 目標:ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成 するにはどうしたらいいのか、ChatGPT のハードルとかコツとかを知りたい。 ※最終的なプロンプトの入力と出力の全文は本ページ下部に貼り付けてます。 作ったもの概要 保険組合のウォーキングイベントの会社内の3チームの歩数進捗の slack への自動投稿 bot を作成しました。 処理は大きく2つに分かれています。 ウォーキングイベントサイトから歩数をスクレイピング&スプシへアップロード スプシの GAS で投稿文字列作成& slack へ自動投稿 今回 ChatGPT でやったのは1の方です。 2は前回半年前開催分のコードをほぼそのまま流用しました。 運良く(?)今回のタイミングでウォーキングイベントのサービスサイトが変わり、 HTML がまるっと変わり1のスクレイピングコードは作り直しが必

        ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成出来たので感想とコツ - Qiita
      • 各業界でのデータサイエンスの活用について調べてみた(随時追加) – かものはしの分析ブログ

        都内の事業会社で分析やWebマーケティングの仕事をしています。大学・大学院では経済学を通じて統計解析を行うなどしておりました。企業に勤めてからは、機械学習やテキストマイニング、クローリング技術などに関心を持っています。 Twitterアカウント Mr_Sakaue( SKUE ) GitHub 読書メーター ほしいものリスト 仕事で、いろんな会社でデータサイエンスってどう使われているのですか?と聞かれることがあり、自分としてはなんとなくしか掴めていないな、知ったかぶりしたくないなと思うところがあったので、やや手厚くリサーチをしてみようと思いました。 2022/3/6の段階では11つの市場しかないですが、最終的には30市場を目指します。 【2021/11/27追記】 公開したところ、それなりにこの記事に関心を持ってくださった方が多かったようなので、少しずつ事例を埋めていこうと思います。 業界

          各業界でのデータサイエンスの活用について調べてみた(随時追加) – かものはしの分析ブログ
        • ハローワークの求人情報をスクレイピング(Python + Selenium + BeautifulSoup) - ai_makerの日記

          この記事は、以下のハローワークインターネットサービスから求人情報を自動で取得する試みを記録したものです: www.hellowork.mhlw.go.jp まずは、ソースコードと実行結果をお見せし、後ほどこの記事を書いた経緯などを話します。 ソースコード:HelloWork_Scraping_ST.py from selenium import webdriver from selenium.webdriver.support.ui import Select import time from bs4 import BeautifulSoup import re # ハローワークインターネットサービスのURL url = "https://www.hellowork.mhlw.go.jp/" # 以下からご自分で使用しているChromeのバージョンに合ったChromeDriverをダウンロ

            ハローワークの求人情報をスクレイピング(Python + Selenium + BeautifulSoup) - ai_makerの日記
          • 第662回 Docker+Selenium ServerでWebブラウザ自動操作環境を作る | gihyo.jp

            今回は、Selenium ServerによるWebブラウザ自動操作環境を、Ubuntu上にDockerを使って簡単に構築する方法を紹介します。 Webブラウザの自動操作を可能にするSelenium Seleniumは、Webアプリケーションのテストを、人が操作することなく自動で行うために開発されているソフトウェアです。本来は「テストの自動化」のために開発されたソフトなのですが、Webブラウザを用いて行っている業務の自動化や、Webサイトの情報を自動収集するスクレイピングなどにも使われています。 今回、主に紹介するのは「Selenium Server」を使う方法ですが、他に「Selenium IDE」というFirefoxおよびGoogle Chrome用の拡張機能も開発・配布されています。Selenium IDEを使えば、デスクトップ環境でWebブラウザの操作を記録し、簡単に再実行させること

              第662回 Docker+Selenium ServerでWebブラウザ自動操作環境を作る | gihyo.jp
            • SeleniumによるAPI呼び出しを含むE2Eテスト自動化 - asoview! Tech Blog

              アソビュー! Advent Calendar 2022の2日目(裏面)の記事です。 アソビューでQAをしている渡辺です。 前職ではエンジニア、およびQAをしておりましたが、10月よりアソビューにQAとして入社しました。 今回は、API呼び出しを含むE2Eテストの自動化を、他社ウェブサイトに仕様記載の無料公開APIで試してみた話となります。 アソビューのQAでは、開発スピードと品質向上の両立を図ることを重視しています。 そのためにも、シフトレフトやテスト自動化推進の取り組みは重要です。 現在QAとして参画中のプロジェクトでAPIの外部公開があり、E2EテストとしてAPIを含むテストの自動化はこれまでしていないので、APIを含むテストについて、Seleniumで簡単に自動化できないか試してみました。 なぜSeleniumか? なぜPythonか? 試してみるテストケース 天気予報APIの仕様

                SeleniumによるAPI呼び出しを含むE2Eテスト自動化 - asoview! Tech Blog
              • データ収集から機械学習まで全て行って競馬の予測をしてみた

                概要 ※ Qiitaから移行して、一部追記しました(さらに追記の項を参照) 元タイトル:データ収集からディープラーニングまで全て行って競馬の予測をしてみた 某T大学で情報系を専攻している学生です。Qiitaの記事を色々見ていたら、こんな記事を発見。 ディープラーニングさえあれば、競馬で回収率100%を超えられる この記事の回収率100%達成に関しては、購入シミュレーションした馬券の数が少ないので、他の期間でも成立するのかはわかりません。ソースコードも有料なのでどうやっているのかの詳細もわかりません。しかし、自分で競馬予測をしてみても面白そうだと思ったので、勉強するつもりで実際にやってみました。 データ収集・分析・予測のすべてを行うことになるのでかなり勉強になります。 なぜ競馬なのか? もしかしたらお金になるかもしれないという欲もありましたが、競馬は控除率が高いらしいのであまり期待はできませ

                  データ収集から機械学習まで全て行って競馬の予測をしてみた
                • 【Python Selenium】#shadow-rootのスクレイピング方法 - まろブログ

                  最近趣味でPython のSeleniumを使ってスクレイピングしているんだが なぜか要素が取得できないことがある。 技術的な原因としては 以下2点のことがあるみたい。 取得したい要素にiframeが使われている 取得したい要素がshadow-rootで囲まれている この内、「1.iframeが含まれている場合のスクレイピング」については ネットでググれば大抵のこと書いてあるから割愛したい。 ここでは「2. shadow-rootが使われた場合のスクレイピング」についてまとめる。 ちなみに私自身、ITエンジニアでもないタダのド素人だから 素人目にみてわかるように書きたいと思う。 ※玄人の人は許してね ちなみにshadow-root攻略に3日かかった そのくらい希少価値があるものだと思いたい。 1. shadow-rootについて 2.shadow-root内のスクレイピング方法 下準備 3

                    【Python Selenium】#shadow-rootのスクレイピング方法 - まろブログ
                  • Selenium入門 Pythonでブラウザを自動化したい方必読! - AI Academy Media

                    SeleniumとChromeDriver SeleniumはWebブラウザで行うクリック操作やキーボード入力などをプログラム上から自動で操作できるようにしたライブラリで ChromeDriverはChromeブラウザをプログラムで動かす為のドライバーです。 この2つを使うことで、SeleniumでChromeブラウザを操作してログインすることが可能です。 またこの2つを組み合わせて使うことで、次のことが可能になります。 ・スクレイピング ・ブラウザの自動操作(次へボタンや購入ボタンなどを自動で押すなど) ・システムの自動テスト ・非同期サイトのスクレイピング Seleniumのインストールは次のようにターミナルおよびコマンドプロントで打ち込み実行することで、インストール出来ます。 pip install selenium Chrome Driverのインストールは下記リンクから飛べます。

                      Selenium入門 Pythonでブラウザを自動化したい方必読! - AI Academy Media
                    • Python × Selenium × Cloud Runで手軽にブラウザ操作botを作ってみよう! - asoview! Tech Blog

                      アソビューでふるさと納税事業・ギフト事業の開発責任者をしております、川又です。 アソビューでは「アソビュー!」「ウラカタ」に次ぐ第3の主要サービスを目指し、 新規事業として「アソビュー!ふるさと納税」「アソビュー!ギフト」を展開しております。 furusato.asoview.com store.asoview.com これら新規事業の開発責任者とは名ばかりで、少数精鋭な開発チームなので私も第一線で様々なシステムの開発を行っています。 学生の頃からパソコンを駆使して身の回りの課題を解決することが好きだったため、これからも開発を続けて行きたいものです。 さて、今回はそんな私がプライベートで「とあるサイトでの予約を自動化したい」という怠惰願望から 自動でブラウザを操作し予約ボタンをポチッと押してくれるbotを開発しましたので、botを構築・デプロイするまでの流れをご紹介したいと思います。 ※今

                        Python × Selenium × Cloud Runで手軽にブラウザ操作botを作ってみよう! - asoview! Tech Blog
                      • PythonでSeleniumライブラリーを使って、Webブラウザー操作を自動化! - Qiita

                        はじめに Pythonプログラムで即業務に役立つサンプルプログラムとして、Webブラウザーの操作をPythonのSeleniumライブラリーを使って自動化する方法をご紹介します。 これによって、いわゆるRPA(Robotics Process Automation)を無料で構築できます。 動作環境 Visual Studio Code Python3.8.8 各種利用ライブラリー Selenium 3.141.0 chromedriver.exe ※ ※実行環境のパソコンにインストールされているGoogleChromeのバージョンにマッチしたchromedriver.exeをダウンロードしてPythonプログラムと同一フォルダに保存する必要があります。(詳しくはYouTube動画で解説しています) 処理概要: PythonでSeleniumを使って、YahooのホームページやGoogle検

                          PythonでSeleniumライブラリーを使って、Webブラウザー操作を自動化! - Qiita
                        • ハローワークから求人情報をスクレイピングする

                          Python + Selenium + Beautiful Soupでハロワをスクレイピング Python3でSelenium(ChromeDriver)とBeautiful Soupを使って、ハローワークの求人情報を取得する方法についてです。今回は東京都千代田区の求人情報を取得しようと思います。 ハローワーク 実装方法 まず最初にライブラリを読み込みます。 from selenium import webdriver from selenium.webdriver.support.ui import Select import time from bs4 import BeautifulSoup Chrome Driverを起動し、ハローワークのトップページにアクセスさせます。 url = "https://www.hellowork.mhlw.go.jp/" driver = webd

                            ハローワークから求人情報をスクレイピングする
                          • GitHub Actionsを利用したE2E自動化テストの実現 ~ Achieving E2E Automated Testing with GitHub Actions ~ 利用GitHub Actions实现E2E自动化测试 - スタディサプリ Product Team Blog

                            こんにちは。スタディサプリのQAチームです。 今回のBlogではスタディサプリで実施している自動化テストの一部の取り組みについて紹介させていただきます。 なお、スタディサプリQAチームの特性を活かし、本記事については日英中3言語で記載します。より多くのオーディエンスに読んで頂ければ嬉しいです。 自動化する動機 まず、なぜ自動化テストを導入するのでしょうか。 1. 新規機能が追加される度に、既存機能への影響を確認するための回帰テストをしなければなりません。 2. 繰り返し同じテストを手動実行することにより、テストコストが増加します。 3. 人間が実施すると、人為的ミスによる不具合の検出漏れが発生してしまう可能性が否定できません。 そのため、品質を担保した上でより早くリリースすることを目的とし自動化を導入しました。 現在の開発およびテストフロー QAが回帰テストの自動化テストスクリプトをGit

                              GitHub Actionsを利用したE2E自動化テストの実現 ~ Achieving E2E Automated Testing with GitHub Actions ~ 利用GitHub Actions实现E2E自动化测试 - スタディサプリ Product Team Blog
                            • 【Python】SBI証券でIPOの申し込みがある場合にLine通知してみた - Qiita

                              はじめに みなさんIPOへの申し込みは行っていますか? 私はSBI証券で数年前からポチポチしていたんですが、まぁこの確認が非常に面倒・・・。 通常は以下を定期的に確認する必要があります。 1.WEBブラウザを開く 2.IDとPWを入力する 3.国内株式>IPO・PO をクリック 4.新規上場ブックビルディング/購入意思表示 をクリック 5.[申込]ボタンがあるか確認 これを自動化したい!という記事です。 事前準備や1〜2までの手順は以下の記事にまとめましたので今回は3-5を中心に記載します。 環境 Python3.9 macOS Catalina10.15.7 Chrome 93.0.4577.63 プログラム 前半は前の記事をご確認ください。 後半はLineの通知先だけ変えれば使えると思います。 from selenium import webdriver ID = open('/Use

                                【Python】SBI証券でIPOの申し込みがある場合にLine通知してみた - Qiita
                              • python×selenium!つい勢いでbenefit stationの自動ログインスクリプトを作ってしまった! - かずきち。の日記

                                benefit stationとは? 知っている方も多いと思いますが、企業が導入している福利厚生サイトです。 飲食店やレジャー施設の割引情報が掲載されている。 がしかし、ログインが必要なのである。 引用:https://bs.benefit-one.co.jp/bs/pages/bs/top/top.faces こんなインターフェースでトップ画面にログイン画面がある。 人間がIDとパスワードを入力しないといけないわけだ。 大問題である。 ここのログインを突破して、中の福利厚生情報を全部抜きたい。 このログイン、スクリプトで突破しましょう。 使ったライブラリなどは import time # スリープを使うために必要 from selenium import webdriver # Webブラウザを自動操作する(python -m pip install selenium) import c

                                  python×selenium!つい勢いでbenefit stationの自動ログインスクリプトを作ってしまった! - かずきち。の日記
                                • WebスクレイピングでGoogleの検索結果を取得しよう!(Python)

                                  Pythonで作れる代表的なプログラムとしてWebスクレイピングが挙げられます。これは主にライブラリを活用して実行するので、Pythonを覚えたての初心者でも簡単に作ることが出来ます。 今回はPythonを使い、Googleの検索結果に表示された記事のタイトル・URLをExcelに書き出すプログラムの作り方を紹介します。 Webスクレイピングとは? Webスクレイピングとは、Web上のサイトから任意の情報を自動で取得する技術のこと。出したデータを加工してファイルとして出力したり、データベース上にデータを溜めることもできます。 一般的にはホームページから大量の情報を取得したい時に使われますが、今回のように検索エンジンの結果一覧にもスクレイピングを実行することが可能です。 ブログやホームページを運営するうえで欠かせない作業が、ターゲットキーワードによる検索結果の把握です。上位表示されている競合

                                    WebスクレイピングでGoogleの検索結果を取得しよう!(Python)
                                  • [Python] Docker+Python+Seleniumでスクレイピング - Qiita

                                    はじめに 前回の記事でDockerコンテナでPython環境を作成しSeleniumを操作してみました。 今回はWebページのフォームで値を入力し、その結果の表示確認をしてみます。 SeleniumでWebページを操作する基本のような部分を備忘録として残すために記載したので見づらいかもしれませんが、そこはご了承ください。 実施すること 今回は下記の項目を実施してみようと思います。 Seleniumを使用しChromeを起動する。 Webページを表示する。 ページ内のボタン要素をクリックし、ページ遷移する。 遷移後のページで必要な要素が表示されるまで待機する。 ページのp要素からテキストを取得する。 ページ内のボタン要素をクリックし、ダイアログボックスを表示させる。 ダイアログボックス内のinput要素に値を入力する。 ダイアログボックス内のdropdownメニューから値をセレクトする。 ダ

                                      [Python] Docker+Python+Seleniumでスクレイピング - Qiita
                                    • TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する|シマ

                                      TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する かつて無料で提供されていたTwitter APIは、イーロン・マスクによる買収などなんやかんやあって有料化されました。有料プランもあるにはありますが、そこそこの価格とそこそこの制限がかかっており、趣味レベルで手を出すのはちょっと憚られる感じのプランになっています。 そこで、TwitterAPIの代替手段として、Yahoo!リアルタイム検索をPythonでスクレイピングすることでツイート推移のデータを取得することにしました。この記事では、その手法(とコード)について書いていこうと思います。 Yahoo!リアルタイム検索とはYahoo!リアルタイム検索は、Yahoo!が提供しているTwitterの検索サービスです。ツイート検索やトレンドなどを確認することができます。とて

                                        TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する|シマ
                                      • 【Selenium】ドロップダウン/selectタグ選択,取得方法まとめ - ゆうきのせかい

                                        Python × Selenium × ChromeDriverで、select/optionタグで構成されるドロップダウン(プルダウン)リストを選択状態にしたり・値を取得する方法をまとめました。 SeleniumのSelectモジュールを使うと簡単に操作できます。 こんなHTMLを前提として書いていきます。 HTML<!DOCTYPE html> <html> <select name="test" id="dropdown"> <option value="1">1番目</option> <option value="2">2番目</option> <option value="3">3番目</option> <option value="4">4番目</option> <option value="5">5番目</option> <option value="6">6番目</opti

                                          【Selenium】ドロップダウン/selectタグ選択,取得方法まとめ - ゆうきのせかい
                                        • 【Network pharmacology】PubChemを用いた漢方成分の抽出【In silico創薬】 - LabCode

                                          4. ChromeDriverのインストール(Macユーザー向け) brew install chromedriver このコマンドは Mac のユーザーが selenium を使うために必要なドライバ chromedriver をインストールします。 brew はMac用のパッケージ管理ソフトです。 chromedriver は、SeleniumがGoogle Chromeを操作するために必要な「仲介役」です。 注意:Chrome本体のバージョンとドライバのバージョンを合わせる必要があります。 Windowsの場合は、公式サイトからChromeDriverをダウンロードしてパスを通す必要があります。 5. 必要なライブラリのインストール② pip install selenium pandas tqdm 一部重複していますが問題ありません(すでに入っていればスキップされます)。ここでは

                                          • 無限にプリパラがみた~~~い!! (Pythonでやってみる)

                                            こんにちは、山本です。 みなさんはプリパラというアニメをご存知でしょうか? プリパラは2014年から2017年までの4年間放送されていた少女向けアニメで、主人公「真中らぁら」とそのトモダチが切磋琢磨してアイドルの頂点に上り詰めていく様が描かれた王道アイドルモノです。 放送が終了した現在でも根強い人気を誇り、新曲が作成されたり、毎年数回のライブ公演が行われたりしております。先日も幕張イベントホールでライブが行なわれました。 感染症対策で声を出してのコールなどはできませんでしたが、とても楽しかったです。 そして、ライブで新シリーズ「アイドルランドプリパラ」のアニメ制作が発表されました。予想外の発表過ぎて参加者のオタクみんな泣いてました。僕も泣いてました。 さて、ここから延々とプリパラのすばらしさ語り布教活動をしていってもいいのですが、それはプリハラ(プリパラハラスメント)になるので、テックの話

                                              無限にプリパラがみた~~~い!! (Pythonでやってみる)
                                            • seleniumでサイトに一度だけログインしてセッションを保存してログイン状態を保ちながら使い続ける方法 - Qiita

                                              はじめに seleniumを使ったら自動的にサイトにアクセスして色々できて本当に便利ですよね。 seleniumの基本的な使い方については色んな記事に書いてあります。 Python + Selenium で Chrome の自動操作を一通り 10分で理解する Selenium Selenium webdriverよく使う操作メソッドまとめ ただしログインする必要があるサイトを使う時に少し難易度が高くなりますね。 自動でログインする方法は意外とたくさんの記事に書いてあります。 Python + Selenium + Chrome で自動ログインいくつか 【Googleログイン自動化】Python×seleniumでGoogleにログインする SeleniumでSlackに自動でログインする selenium から Twitter にログインして投稿 PythonとSeleniumで自動ログイ

                                                seleniumでサイトに一度だけログインしてセッションを保存してログイン状態を保ちながら使い続ける方法 - Qiita
                                              • Testing web applications hosted in a private network using AWS Device Farm | Amazon Web Services

                                                Front-End Web & Mobile Testing web applications hosted in a private network using AWS Device Farm AWS Device Farm offers an elastic Selenium Grid in the cloud that provides instant access to different versions of Chrome, Firefox, Internet Explorer, and Microsoft Edge browsers running on Windows servers. Today, thousands of web developers are leveraging Device Farm’s Grid to verify that their appli

                                                  Testing web applications hosted in a private network using AWS Device Farm | Amazon Web Services
                                                • Pythonでseleniumを使う! - Qiita

                                                  TL;DR seleniumの使い方 Chromeで起動方法 WebDriverインストール chromeの設定画面でchromeのバージョンを確認します。 こちらからChromeのWebDriverをダウンロードします。 先程確認したバージョンを同じものを選びます。 OSで選ぶ。 プログラミング ライブラリインストール from time import sleep from selenium import webdriver def main(): options = webdriver.ChromeOptions() driver_path = "./chromedriver" driver = webdriver.Chrome(executable_path=driver_path, options=options) driver.get("https://www.yahoo.co.

                                                    Pythonでseleniumを使う! - Qiita
                                                  • WEB+DB PRESS 総集編を有効活用するためのPythonスクレイピング - Qiita

                                                    WEB+DB PRESS という雑誌はご存知かと思います。 WEB+DB PRESSは2021年7月にvol.120を記念し、それまでの全号をダウンロードできる特典がついた総集編が刊行されました。 WEB+DB PRESS総集編[Vol.1~120] (WEB+DB PRESSプラスシリーズ) これまでの全ての記事が3000円で読めるならばと思い、私も先日Amazonでポチってしまいましたが、有効な使い方いまいち分からず放置してしまっています。 そこで最近勉強し始めたSeleniumを使って記事タイトルを取得してExcelで表にしちゃおう!というのが今回の記事内容です。 環境 Python 3.9 selenium 4.2.0 openpyxl 3.0.9 コード to_excel 関数内のExcel の出力先ディレクトリと、CHROMEDRIVERを変えれば動くと思います。 import

                                                      WEB+DB PRESS 総集編を有効活用するためのPythonスクレイピング - Qiita
                                                    • 便利なPythonモジュールの一覧!おすすめ外部ライブラリも紹介 - アンドエンジニア - エンジニアのこと、エンジニアから。

                                                      この記事でわかること モジュールを使いこなすには、どのようなモジュールが存在するかを知ることが重要 標準モジュールはプリインストールされていて、すぐに使える汎用的な機能が多い 外部モジュールはPyPIからインストールが必要で、専門性が高い機能が多い 【関連記事】【Pythonのライブラリ管理ツール】pipインストールを徹底解説!Windowsでも簡単? 【関連記事】PythonのコードをEXE化するには? PyInstallerやその他ツールの特徴や使い方 【関連記事】Pythonで自動化できること7選!面倒な作業を効率化してより便利に 目次 1. Pythonのモジュールとは 1-1. Pythonのモジュールを活用するには 2. Pythonの便利な標準モジュール一覧 2-1. datetime(日付・時刻) 2-2. calendar(カレンダー) 2-3. re(正規表現) 2-4

                                                        便利なPythonモジュールの一覧!おすすめ外部ライブラリも紹介 - アンドエンジニア - エンジニアのこと、エンジニアから。
                                                      • 自動購入Bot完成まで

                                                        簡単な動作説明 取りたいチケットのURLを入力 開始時間を入力 PCとインターネット時報のズレを検出し修正 2分前にサイトにログイン 開始時間に購入 とまーざっくりですがこんな感じですね コード とりあえず完成したコードの一部を公開します。 作れたことを載せたいのであってこのコードを使えば誰でもできるって訳では無いです。 あくまでも参考程度になればと思ってます。 大半はコピペでいいですが、Amazonだったり楽天だったり自動購入する目的のサイトによってもコードは変わります。 自分は今回は地下アイドルのチケットの購入に使いました。 整理番号1番を取ることもできました ボタンをクリックや文字を入力などのサイトによって変わるようなものは1部端折ってます。 (載せてても結局サイトによって変わるため) 具体的に変える部分としてはdef()の中身です。 基本動作などほかの記事にしてるため参考にしてみて

                                                          自動購入Bot完成まで
                                                        • Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説

                                                          Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説 2020年4月16日 プログラミング takatan69 PythonはWebスクレイピングするのに大変便利な言語です。ライブラリーが充実しているため、簡単にWeb上のデータを取得することができるのです。今回はPythonで可能な2種類のスクレイピングの手法についてまとめてみました。 目次 Webスクレイピングを実施するために知っておくべきこと静的なhtmlからデータを取得する(BeautifulSoup4)動的にJavaScriptで出力されるhtmlのデータを取得する(Selenium & ChromeDriver )Webサイトのキャプチャを取得するには?まとめ 1. スクレイピングを実施するために知っておくべきこと まずスクレイピングをする前に知っ

                                                            Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説
                                                          • Linux の CUI 環境で Google Chromeを動かす - シナプス技術者ブログ

                                                            株式会社シナプス技術部ネットワーク課の杉原です。 これから、Linux の CUI 環境で Google Chromeを動かす方法についてご説明いたします。 GUI と CUI について GUI(Graphical User Interface) GUIとは、画面上に視覚的な画像や図形が用いられているインターフェイスのことです。 キーボードとマウスを使って画面上のテキストフォームやボタンなどのパーツを動かすことで、プログラムを実行します。 普段、みなさんが使っているPCやスマートフォンの画面がGUIにあたります。 CUI(Character User Interface) CUIは画面上に文字情報のみが表示されるインターフェイスのことです。 マウスを使わずキーボードでコマンドラインを入力することで操作を行います。 現在、ネットワーク装置やUNIX系サーバーはCUIでの操作が主流になってます

                                                              Linux の CUI 環境で Google Chromeを動かす - シナプス技術者ブログ
                                                            • Python seleniumでAWSコンソールのログインを自動化する(PythonでWeb画面のスクレイピングする) - Qiita

                                                              タイトルの通りですが、Pythonでseleniumを使ってAWSコンソールのログイン処理を自動化したので投稿します。 最近、AWSアカウントを複数利用する(個人用/会社用/顧客用などなど)ケースが増えてきており、さらにパスワードポリシーが様々で大混乱中のため自動化しました(^^;) いわゆるPythonにseleniumをインストールしてWebスクレイピングする編です。 想定読者 AWSコンソールのログインが面倒に感じている人 Pythonが気になっている人 Webの自動化に取り組みたい人 作業時間 約15分 参考ページ こちらのページのseleniumの基本操作で実現出来ました(^^) 作業手順 ブラウザのドライバダウンロード Pythonにseleniumをインストール 実装 それでは1つ1つ手順を説明します。 1.ブラウザのドライバダウンロード seleniumはブラウザのドライバ

                                                                Python seleniumでAWSコンソールのログインを自動化する(PythonでWeb画面のスクレイピングする) - Qiita
                                                              • Docker + Selenium + arm64 - Just a Note for Hobby

                                                                When I tried to use Selenium on RaspberryPi whose OS is Ubuntu, I couldn't do it because any image of SeleniumHQ/docker-selenium doesn't support arm64. I tried another way, which is downloading chromedriver from https://chromedriver.chromium.org/downloads, but it didn't work. I was completely exhausted. That's why I'm writing how to manage to do Selenium on the device . Seleniarm Run a container I

                                                                  Docker + Selenium + arm64 - Just a Note for Hobby
                                                                • SMBC日興証券の注文中リストをPythonでCSVとして取り込む | ミカログ

                                                                  import sys import time import datetime from selenium import webdriver from selenium.webdriver.support.ui import Select import pandas from selenium.webdriver.chrome.options import Options from bs4 import BeautifulSoup import csv def connect_smbc(SHITEN,KOUZA,PASSWORD,name): options = Options() # ヘッドレスモード(chromeを表示させないモード) options.add_argument('--headless') driver = webdriver.Chrome(options=options,

                                                                    SMBC日興証券の注文中リストをPythonでCSVとして取り込む | ミカログ
                                                                  • 【Python】Google画像検索からオリジナル画像を根こそぎダウンロード - Qiita

                                                                    はじめに 以前、Google画像検索からサムネ画像をダウンロードする方法を書きましたが、 この度、画像を詳細表示(検索結果を1度クリックした状態)すれば、元画像のリンクがページソース上に記載される、ということが判明しました。 この仕様を生かしてオリジナル画像をダウンロードしていきましょう(Googleがつよいからって負担はかけすぎないように注意しましょう。) プログラムの流れ SeleniumでGoogle画像検索 ↓ 1つ目の画像を詳細表示後、右カーソルキーを押下しまくる ↓ オリジナル画像のリンクを取得 ↓ ダウンロード 実装 Selenium, requestsあたりはインストールしてなかったらしてください。 ChromeDriverは実行パスにある設定になってるんで、適宜書き換えてください(インポート文のすぐ下)。 リファクタリングとかはしてないので汚いですが勘弁。 from se

                                                                      【Python】Google画像検索からオリジナル画像を根こそぎダウンロード - Qiita
                                                                    • 【python】メンドクサイを自動にさせてみた3【SlackBot編】 - Qiita

                                                                      この記事について 最近iOSアプリで20円ばかり儲けた凄腕プログラマー(自称)がサラリーマンしている仕事の一部がめんどくさかったり、誰かの人的ミスのせいでなんか怒られたりと嫌になりそうなことを、プログラムを作ってサクッと解決★ 今回は送迎の有無をpythonを使って判別し、slackに放り投げて通知を送ることで、見落としミスがなくなるようにしました。 背景には、今時宿泊者名簿をイチイチ紙に出力して、今日の送迎の有無を確認しているのですが、その出力するシステムがツギハギだらけのもので、予期せぬ動作をすることがあります。 今回は、送迎あり・なしのラジオボタンがあるのですが、ありのボタンを押しても、その下にある備考欄が空欄だと、紙に出力されないというわけわかんない不具合がありました。 何言ってるのかわからないかと思いますが、私にもわかりません。 何をした? 1.pythonを使います。 2.se

                                                                        【python】メンドクサイを自動にさせてみた3【SlackBot編】 - Qiita
                                                                      • Speaker Deckのスライド更新はPythonにやらせよう - Qiita

                                                                        import logging import os import sys import time import chromedriver_binary from selenium import webdriver from selenium.common.exceptions import TimeoutException from selenium.webdriver.common.by import By from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.support.ui import WebDriverWait SLIDE_URL = "test-auto-upload" FILE_PATH = "/home/user/Downloads/test-aut

                                                                          Speaker Deckのスライド更新はPythonにやらせよう - Qiita
                                                                        • Firefox で selenium を実行しながら JavaScript を on/off する方法 - Qiita

                                                                          selenium 実行中に about:config の状態を変更する 環境 Windows 10 Pro Firefox 108.0.2 64bit Python 3.9.13 (Anaconda) selenium 4.7.2 あるいは Python 3.7.15 selenium 3.141.0 概要 selenium の実行中に about:config を開いて javascript.enabled の値を変更する。 具体的には、次のようなコードを実行する。 from selenium import webdriver from selenium.webdriver.common.by import By options = Options() options.binary_location = r'C:/Program Files/Mozilla Firefox/firefox

                                                                            Firefox で selenium を実行しながら JavaScript を on/off する方法 - Qiita
                                                                          • Seleniumで座標を0,0に移す方法 - Qiita

                                                                            PythonでSeleniumのActionchainsのmove_by_offsetを使って画面の左上からの座標を指定してクリックしようとする際に、2回目以降だと現在の座標からの位置になってしまいうまくいきませんでした。 また、move_to_elementも要素の中央への移動しかできず苦戦していました。 今回その解決策を見つけたので共有します。 from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.common.action_chains import ActionChains html = driver.find_element(By.XPATH,'/html') ActionChains(driver).move_to_element(ht

                                                                              Seleniumで座標を0,0に移す方法 - Qiita
                                                                            • 初心者でも簡単にできるSeleniumのインストール【Python】

                                                                              簡単に言うと、Seleniumはブラウザを操作するためのPythonライブラリです。 そして、PythonとブラウザをつなぐためにWebドライバーが必要となります。 この記事では、ブラウザはChrome前提で話を進めます。 Chromeの場合、WebドライバーはChromeDriverとなります。 以上、Seleniumについての説明でした。 次は、Seleniumのシステム要件を確認します。 Seleniumのシステム要件 現時点(2021年4月)でのSeleniumの最新バージョンは、3.141.0となります。 この最新バージョンは、2018年11月1日にリリースされています。 大前提として、実際にブラウザがインストールされている必要があります。 したがって、Chromeがインストールされていることは必須です。 それに伴って、ChromeDriverが必須となります。 ChromeDr

                                                                                初心者でも簡単にできるSeleniumのインストール【Python】
                                                                              • Teamsの個人チャットへ自動送信する(2段階認証回避) - Qiita

                                                                                はじめに お久しぶりです。プロコン間に合いませんでした。次はきっと間に合わせます(次があったら)。 今回の記事は、Teamsの個人チャットへ、メッセージを自動送信するプログラムの作成について書いたものです。バイト先で必要になったので、作りました。 意外と躓きポイントがあったので大変でした。躓いたのは、ログイン(2段階認証)と、seleniumの要素の取得(classでfindする時に空白を含んではいけない)です。一応、githubにプログラムを公開しておきます。使う人がいればですが、好きに使ってください。 概要 本記事で解説する手法は、「Teamsの個人チャットへメッセージを自動送信する」ものである。 従来のTeasmへ自動送信する手段としてIncoming Webhook[1]というツールがあるが、チーム単位でしか操作できない特徴があり、自動送信される相手はそのチームに参加する必要がある

                                                                                  Teamsの個人チャットへ自動送信する(2段階認証回避) - Qiita
                                                                                • e-tax マイナンバーカードなし - Python転職初心者向けエンジニアリングブログ

                                                                                  ## e-tax マイナンバーカードなし e-tax(電子申告)を利用する際、マイナンバーカードを利用できない場合には、代替手段としてe-taxの利用登録情報を使用してログインする方法があります。この記事では、e-taxをマイナンバーカードなしで利用する方法について詳しく説明します。 1. e-tax 利用登録情報でログインする e-taxの利用登録情報は、ユーザーIDとパスワードで構成されています。マイナンバーカードが利用できない場合でも、この利用登録情報を使用してログインすることができます。以下の手順でログインを行います。 e-taxのログインページにアクセスします。 「利用登録情報でログインする」を選択します。 ユーザーIDとパスワードを入力してログインします。 2. サンプルコードの実行結果 以下は、e-taxの利用登録情報を使用してログインするPythonコードのサンプルです。

                                                                                    e-tax マイナンバーカードなし - Python転職初心者向けエンジニアリングブログ