並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 18 件 / 18件

新着順 人気順

python selenium chromedriver binaryの検索結果1 - 18 件 / 18件

  • SeleniumによるAPI呼び出しを含むE2Eテスト自動化 - asoview! Tech Blog

    アソビュー! Advent Calendar 2022の2日目(裏面)の記事です。 アソビューでQAをしている渡辺です。 前職ではエンジニア、およびQAをしておりましたが、10月よりアソビューにQAとして入社しました。 今回は、API呼び出しを含むE2Eテストの自動化を、他社ウェブサイトに仕様記載の無料公開APIで試してみた話となります。 アソビューのQAでは、開発スピードと品質向上の両立を図ることを重視しています。 そのためにも、シフトレフトやテスト自動化推進の取り組みは重要です。 現在QAとして参画中のプロジェクトでAPIの外部公開があり、E2EテストとしてAPIを含むテストの自動化はこれまでしていないので、APIを含むテストについて、Seleniumで簡単に自動化できないか試してみました。 なぜSeleniumか? なぜPythonか? 試してみるテストケース 天気予報APIの仕様

      SeleniumによるAPI呼び出しを含むE2Eテスト自動化 - asoview! Tech Blog
    • AWS Lambda PythonでSeleniumを使える環境を構築する | DevelopersIO

      データアナリティクス事業本部のueharaです。 今回はAWS Lambda (Python)で、WebアプリケーションをテストするためのポータブルフレームワークであるSeleniumを使える環境を構築してみたいと思います。 バケットの準備 今回はLambda Layerを構築することになりますが、その資材をS3に配置するため、まずバケットを用意します。 AWSコンソールでサービスからS3を検索します。 「バケットを作成」から作業用のバケット「selenium-work」という名前のバケットを作成します。 その他の設定はデフォルトのままとします。 パッケージの用意 まず、Lambda (Python)でSeleniumを利用できるようにするために、各パッケージの用意を行います。 パッケージの用意には、無料で使えるサービスであるAWS CloudShellを利用します。 Seleniumのダ

        AWS Lambda PythonでSeleniumを使える環境を構築する | DevelopersIO
      • python×selenium!つい勢いでbenefit stationの自動ログインスクリプトを作ってしまった! - かずきち。の日記

        benefit stationとは? 知っている方も多いと思いますが、企業が導入している福利厚生サイトです。 飲食店やレジャー施設の割引情報が掲載されている。 がしかし、ログインが必要なのである。 引用:https://bs.benefit-one.co.jp/bs/pages/bs/top/top.faces こんなインターフェースでトップ画面にログイン画面がある。 人間がIDとパスワードを入力しないといけないわけだ。 大問題である。 ここのログインを突破して、中の福利厚生情報を全部抜きたい。 このログイン、スクリプトで突破しましょう。 使ったライブラリなどは import time # スリープを使うために必要 from selenium import webdriver # Webブラウザを自動操作する(python -m pip install selenium) import c

          python×selenium!つい勢いでbenefit stationの自動ログインスクリプトを作ってしまった! - かずきち。の日記
        • [スクレイピング] Pythonでwebサイトの情報を丸裸にしよう!! - Qiita

          概要 Pythonのスクレイピングについて1からまとまっている記事等がみつからなかったので自分で作成することにした。 今回は特にseleniumについての内容だが、この記事を通して一通りpythonのスクレイピングが出来るようになる。 (スクレイピングで学んだことがあるたびに追加していきます!) (エラーハンドリングについて近々追記予定) 目次 1. 初期設定 ライブラリのimport 初期optionの設定 driverのセットアップ はじめのurlへジャンプ 2. seleniumの基本動作 要素の取得 要素のテキストを取得 要素のattributeを取得 文字列を送信する クリックする javascriptの実行 タブ移動 3.seleniumの応用動作 ログイン ページネーション 無限スクロール Tips Current browser version is ・・・ time.sl

            [スクレイピング] Pythonでwebサイトの情報を丸裸にしよう!! - Qiita
          • 【Python/Selenium】ChromeDriverバージョンエラー対処法 - ゆうきのせかい

            Python/SeleniumでGoogle Chromeブラウザを自動操作したくてこんなふうにコードをかいて、 Pythonimport chromedriver_binary from selenium import webdriver driver = webdriver.Chrome() driver.get('https://google.com')動かしてみたら、4行目のwebdriver.Chrome()でこんな↓エラーが出た時の対処方です。 selenium.common.exceptions.SessionNotCreatedException: Message: session not created: This version of ChromeDriver only supports Chrome version 80 Current browser version

              【Python/Selenium】ChromeDriverバージョンエラー対処法 - ゆうきのせかい
            • WebスクレイピングでGoogleの検索結果を取得しよう!(Python)

              Pythonで作れる代表的なプログラムとしてWebスクレイピングが挙げられます。これは主にライブラリを活用して実行するので、Pythonを覚えたての初心者でも簡単に作ることが出来ます。 今回はPythonを使い、Googleの検索結果に表示された記事のタイトル・URLをExcelに書き出すプログラムの作り方を紹介します。 Webスクレイピングとは? Webスクレイピングとは、Web上のサイトから任意の情報を自動で取得する技術のこと。出したデータを加工してファイルとして出力したり、データベース上にデータを溜めることもできます。 一般的にはホームページから大量の情報を取得したい時に使われますが、今回のように検索エンジンの結果一覧にもスクレイピングを実行することが可能です。 ブログやホームページを運営するうえで欠かせない作業が、ターゲットキーワードによる検索結果の把握です。上位表示されている競合

                WebスクレイピングでGoogleの検索結果を取得しよう!(Python)
              • TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する|シマ

                TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する かつて無料で提供されていたTwitter APIは、イーロン・マスクによる買収などなんやかんやあって有料化されました。有料プランもあるにはありますが、そこそこの価格とそこそこの制限がかかっており、趣味レベルで手を出すのはちょっと憚られる感じのプランになっています。 そこで、TwitterAPIの代替手段として、Yahoo!リアルタイム検索をPythonでスクレイピングすることでツイート推移のデータを取得することにしました。この記事では、その手法(とコード)について書いていこうと思います。 Yahoo!リアルタイム検索とはYahoo!リアルタイム検索は、Yahoo!が提供しているTwitterの検索サービスです。ツイート検索やトレンドなどを確認することができます。とて

                  TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する|シマ
                • 【Selenium】ドロップダウン/selectタグ選択,取得方法まとめ - ゆうきのせかい

                  Python × Selenium × ChromeDriverで、select/optionタグで構成されるドロップダウン(プルダウン)リストを選択状態にしたり・値を取得する方法をまとめました。 SeleniumのSelectモジュールを使うと簡単に操作できます。 こんなHTMLを前提として書いていきます。 HTML<!DOCTYPE html> <html> <select name="test" id="dropdown"> <option value="1">1番目</option> <option value="2">2番目</option> <option value="3">3番目</option> <option value="4">4番目</option> <option value="5">5番目</option> <option value="6">6番目</opti

                    【Selenium】ドロップダウン/selectタグ選択,取得方法まとめ - ゆうきのせかい
                  • 無限にプリパラがみた~~~い!! (Pythonでやってみる)

                    こんにちは、山本です。 みなさんはプリパラというアニメをご存知でしょうか? プリパラは2014年から2017年までの4年間放送されていた少女向けアニメで、主人公「真中らぁら」とそのトモダチが切磋琢磨してアイドルの頂点に上り詰めていく様が描かれた王道アイドルモノです。 放送が終了した現在でも根強い人気を誇り、新曲が作成されたり、毎年数回のライブ公演が行われたりしております。先日も幕張イベントホールでライブが行なわれました。 感染症対策で声を出してのコールなどはできませんでしたが、とても楽しかったです。 そして、ライブで新シリーズ「アイドルランドプリパラ」のアニメ制作が発表されました。予想外の発表過ぎて参加者のオタクみんな泣いてました。僕も泣いてました。 さて、ここから延々とプリパラのすばらしさ語り布教活動をしていってもいいのですが、それはプリハラ(プリパラハラスメント)になるので、テックの話

                      無限にプリパラがみた~~~い!! (Pythonでやってみる)
                    • Chrome+Seleniumでファイルをダウンロードできない【解決済】 - いっさいがっさい

                      これは、Selenium + Python で Chrome を自動操作してファイルをダウンロードしようと思ったときの話です。テストでは上手くいくのに本番環境にいくとダウンロードされない。エラーも発生しない。ぜんぜん分からず調べること数時間…。 結局原因はヘッドレスモードでした。本番時にのみ--headlessオプションをつけていたことが仇になりました。Chrome の初期設定では(セキュリティのためか)ヘッドレスモードではファイルをダウンロードできないようです。それならそれでエラーで落としてほしいものです。 Webにあった情報を参考にプログラムを修正したら解決。無事にダウンロードができました。 ヘッドレスモードでのダウンロード方法 まずは必要なパッケージのインポート。 from selenium import webdriver from selenium.webdriver.chrom

                        Chrome+Seleniumでファイルをダウンロードできない【解決済】 - いっさいがっさい
                      • Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説

                        Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説 2020年4月16日 プログラミング takatan69 PythonはWebスクレイピングするのに大変便利な言語です。ライブラリーが充実しているため、簡単にWeb上のデータを取得することができるのです。今回はPythonで可能な2種類のスクレイピングの手法についてまとめてみました。 目次 Webスクレイピングを実施するために知っておくべきこと静的なhtmlからデータを取得する(BeautifulSoup4)動的にJavaScriptで出力されるhtmlのデータを取得する(Selenium & ChromeDriver )Webサイトのキャプチャを取得するには?まとめ 1. スクレイピングを実施するために知っておくべきこと まずスクレイピングをする前に知っ

                          Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説
                        • Linux の CUI 環境で Google Chromeを動かす - シナプス技術者ブログ

                          株式会社シナプス技術部ネットワーク課の杉原です。 これから、Linux の CUI 環境で Google Chromeを動かす方法についてご説明いたします。 GUI と CUI について GUI(Graphical User Interface) GUIとは、画面上に視覚的な画像や図形が用いられているインターフェイスのことです。 キーボードとマウスを使って画面上のテキストフォームやボタンなどのパーツを動かすことで、プログラムを実行します。 普段、みなさんが使っているPCやスマートフォンの画面がGUIにあたります。 CUI(Character User Interface) CUIは画面上に文字情報のみが表示されるインターフェイスのことです。 マウスを使わずキーボードでコマンドラインを入力することで操作を行います。 現在、ネットワーク装置やUNIX系サーバーはCUIでの操作が主流になってます

                            Linux の CUI 環境で Google Chromeを動かす - シナプス技術者ブログ
                          • 【Selenium】Chromeの拡張機能を起動する方法(Python) - ゆうきのせかい

                            Python × Selenium × ChromeDriverでGoogle Chromeを起動すると、通常だと拡張機能はまっさらな状態で起動してしまいます。 でも、↓こんなふうに「拡張機能も同時に起動したい」ということがあったので、方法をメモしておきます。 ChromeDriverに"拡張機能実行オプション"を与えることで、実現できました。 【Selenium】ChromeDriverを拡張機能あり状態で起動する起動する拡張機能のIDを調べる拡張機能が保存されているフォルダーパスを調べる"拡張機能起動オプション"を与えてコード実行この3ステップです。順番に説明していきます。 1. 起動する拡張機能のIDを調べるまず、chrome拡張機能のIDを確認しましょう。 chromeを開き、右上三点マーク > その他のツール > 拡張機能 をクリック。 拡張機能ページが開くので、右上の「デベロッ

                              【Selenium】Chromeの拡張機能を起動する方法(Python) - ゆうきのせかい
                            • Speaker Deckのスライド更新はPythonにやらせよう - Qiita

                              import logging import os import sys import time import chromedriver_binary from selenium import webdriver from selenium.common.exceptions import TimeoutException from selenium.webdriver.common.by import By from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.support.ui import WebDriverWait SLIDE_URL = "test-auto-upload" FILE_PATH = "/home/user/Downloads/test-aut

                                Speaker Deckのスライド更新はPythonにやらせよう - Qiita
                              • PythonでGoogle検索タイトルとURL一覧を抽出してみた | WATLAB

                                近年Google検索は完全に情報収集の基本になっています。Webスクレイピングで自動情報収集をする場合、Google検索結果を扱えるようになると世界中の情報をシステマティックに処理できるようになります。ここでは、Google検索で得られるタイトルとURLを一覧で取得する方法を紹介します。 こんにちは。wat(@watlablog)です。 WebスクレイピングでGoogle検索結果を自在に操れるようになってきましたので、ここでは検索タイトルとURLを一覧で取得する方法を紹介します! Google検索を自動化するメリット3選 ビッグデータを容易に取得できる Google検索は現代の情報収集の基本となっており、当ブログを始め様々なWebサイトがネットワークを介して検索できるようになっています。 Googleを始めとした検索エンジンからは、あらゆるブログ、公的機関、民間企業のページに繋がっているの

                                  PythonでGoogle検索タイトルとURL一覧を抽出してみた | WATLAB
                                • Recruiting Opsをやっていく - Qiita

                                  2023年9月28日: Recruiting Opsをやっていく 2を公開しました。 はじめに 自己紹介 株式会社エクサウィザーズでエンジニア・デザイナーポジションの採用をしている者です マーケティング/PRがバックグラウンドで、現在は採用人事をメインにしています 技術者だったことはありません (予防線) Recruiting Opsってなに なんでしょうね... 要約 レポーティングを自動化した その結果どういうことができるようになったか 今後やっていきたいこと(ダッシュボード化、より高次のインサイトの抽出etc) 課題 1.採用は自動化されていないオペレーションだらけ オペレーションの重要性が高い一方で、よりよい活動のためには個別化(パーソナライズ)が必須という状況。モチベーションとしては適切なオペレーションの自動化を通して、個別化を限界までしたいわけです。 2.エクサウィザーズは採用

                                    Recruiting Opsをやっていく - Qiita
                                  • 【Selenium】ヘッドレスモード時だけ"element not interactable"になる - ゆうきのせかい

                                    Python × Selenium × ChromeDriverでブラウザ操作をしようとして、 通常のブラウザモードで起動すると、処理成功headlessオプションで起動すると、決まってエラー(例外)になるという事象が起きました。 具体的に発生した例外は以下「ElementNotInteractableException: Message: element not interactable」というものです。 Traceback (most recent call last): ...省略... File "/opt/anaconda3/lib/python3.7/site-packages/selenium/webdriver/remote/webelement.py", line 479, in send_keys 'value': keys_to_typing(value)}) Fil

                                      【Selenium】ヘッドレスモード時だけ"element not interactable"になる - ゆうきのせかい
                                    • 気象データが欲しくなって過去にスクレイピングで入手した話 - Qiita

                                      この記事を書いた理由 1年半前に使ったものを見つけたので整理(年末に向けたお掃除) なんちゃって分析レベルでも分析大事だなと再認識したので書きながら記憶を呼び起こしたい 当時の状況 当時、一般ユーザー向けのサービスを担当していて、ユーザーがどんなシチュエーションの時にどういう行動を取るのか見たかった (大人の事情で詳しく書けない) 天気とか気温が関係する(と考えられている)サービスだったから気象データと紐付けて分析すれば何かわかるのでは?という考えがあった 分析タイミングは不定期だったので必要なタイミングで手動で叩いて取得していた データ分析例 仮に1ヶ月の間にAさんがランチをどこで食べるのかを集計。 実際に分析したものじゃないです (ここでは お店の名前、お店に訪れた日時、お店の場所 を保持してるものとする。) 集計したものを見たところ、職場から離れた飲食店に行くこともあれば近くの飲食店

                                        気象データが欲しくなって過去にスクレイピングで入手した話 - Qiita
                                      1