並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 34 件 / 34件

新着順 人気順

selenium python install driverの検索結果1 - 34 件 / 34件

  • OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z

    凄いものが出てきてしまった。 ChatGPTの「Code Interpreter」が話題になったが、あれはあくまでクラウド上で動いているだけ。それを模してローカルで動作するようになった「Open Interpreter」は、衝撃的な成果である。 Open Interpreterのインストールは簡単。コマンド一発だ $ pip install open-interpreter起動も簡単 $ interpreter -yこれだけでOK。 あとはなんでもやってくれる。 たとえばどんなことができるのかというと、「AppleとMetaの株価の推移をグラフ化してくれ」と言うとネットから自動的に情報をとってきてPythonコード書いてグラフをプロットしてくれる。 凄いのは、ローカルで動くのでたとえばApplescriptを使ってmacOSで動いているアプリを直接起動したり操作したりできる。「Keynot

      OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z
    • ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成出来たので感想とコツ - Qiita

      今回やりたかったこと 目標:ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成 するにはどうしたらいいのか、ChatGPT のハードルとかコツとかを知りたい。 ※最終的なプロンプトの入力と出力の全文は本ページ下部に貼り付けてます。 作ったもの概要 保険組合のウォーキングイベントの会社内の3チームの歩数進捗の slack への自動投稿 bot を作成しました。 処理は大きく2つに分かれています。 ウォーキングイベントサイトから歩数をスクレイピング&スプシへアップロード スプシの GAS で投稿文字列作成& slack へ自動投稿 今回 ChatGPT でやったのは1の方です。 2は前回半年前開催分のコードをほぼそのまま流用しました。 運良く(?)今回のタイミングでウォーキングイベントのサービスサイトが変わり、 HTML がまるっと変わり1のスクレイピングコードは作り直しが必

        ChatGPT(GPT-4) で一撃でスクレイピングするコードを生成出来たので感想とコツ - Qiita
      • 第662回 Docker+Selenium ServerでWebブラウザ自動操作環境を作る | gihyo.jp

        今回は、Selenium ServerによるWebブラウザ自動操作環境を、Ubuntu上にDockerを使って簡単に構築する方法を紹介します。 Webブラウザの自動操作を可能にするSelenium Seleniumは、Webアプリケーションのテストを、人が操作することなく自動で行うために開発されているソフトウェアです。本来は「テストの自動化」のために開発されたソフトなのですが、Webブラウザを用いて行っている業務の自動化や、Webサイトの情報を自動収集するスクレイピングなどにも使われています。 今回、主に紹介するのは「Selenium Server」を使う方法ですが、他に「Selenium IDE」というFirefoxおよびGoogle Chrome用の拡張機能も開発・配布されています。Selenium IDEを使えば、デスクトップ環境でWebブラウザの操作を記録し、簡単に再実行させること

          第662回 Docker+Selenium ServerでWebブラウザ自動操作環境を作る | gihyo.jp
        • SeleniumによるAPI呼び出しを含むE2Eテスト自動化 - asoview! Tech Blog

          アソビュー! Advent Calendar 2022の2日目(裏面)の記事です。 アソビューでQAをしている渡辺です。 前職ではエンジニア、およびQAをしておりましたが、10月よりアソビューにQAとして入社しました。 今回は、API呼び出しを含むE2Eテストの自動化を、他社ウェブサイトに仕様記載の無料公開APIで試してみた話となります。 アソビューのQAでは、開発スピードと品質向上の両立を図ることを重視しています。 そのためにも、シフトレフトやテスト自動化推進の取り組みは重要です。 現在QAとして参画中のプロジェクトでAPIの外部公開があり、E2EテストとしてAPIを含むテストの自動化はこれまでしていないので、APIを含むテストについて、Seleniumで簡単に自動化できないか試してみました。 なぜSeleniumか? なぜPythonか? 試してみるテストケース 天気予報APIの仕様

            SeleniumによるAPI呼び出しを含むE2Eテスト自動化 - asoview! Tech Blog
          • 【機械学習】機械学習を用いたin silico screening【AI創薬】~第2/5章 スクレイピングによる公共データベース(PDB)からの機械学習データを収集~ - LabCode

            AI創薬とは? AI創薬は、人工知能(AI)技術を利用して新しい薬物を発見、開発するプロセスです。AIは大量のデータを高速に処理し、薬物の候補を予測したり、薬物相互作用を評価したりします。また、AIは薬物の効果や安全性をシミュレートすることも可能で、臨床試験の前の段階でリスクを評価することができます。これにより、薬物開発のコストと時間を大幅に削減することが期待されています。AI創薬は、薬物開発の新しいパラダイムとして注目を集め、製薬企業や研究機関で積極的に研究、導入が進められています。また、バイオインフォマティクス、ケモインフォマティクス、機械学習、ディープラーニングなどの技術が組み合わされ、薬物開発のプロセスを革新しています。さらに、AI創薬は個人化医療の推進にも寄与し、患者にとって最適な治療法を提供する可能性を秘めています。 今回はAI創薬の中でも、in silico screeeni

            • ゼロからはじめるPython(93) Pythonでブラウザ自動化 - 画像を丸ごとダウンロードしよう

              以前、本連載ではSeleniumを使ってブラウザを自動操縦する方法を紹介した。とても便利だがブラウザごとのドライバが必要でセットアップが面倒という側面もあった。しかし最近では自動インストールの方法が確立されて便利になった。そこで改めてブラウザの自動操縦を試してみよう。 ブラウザを自動操縦して画像をダウンロードしたところ Seleniumについて SeleniumとはWebブラウザを自動操縦するためのライブラリだ。もともとブラウザを使って自動テストを行うためのライブラリだが、今ではWeb巡回(クローリング)からデータ抽出(スクレイピング)までいろいろな自動処理に使われている。 Seleniumで可能なのは次のような処理だ。 ブラウザを自動操縦して任意のページを表示する ページ内の任意の要素を抽出する(id属性やclass属性、CSSセレクタで抽出できる) ページのスクリーンショットが取得でき

                ゼロからはじめるPython(93) Pythonでブラウザ自動化 - 画像を丸ごとダウンロードしよう
              • AWS Device Farmでデスクトップブラウザテストを行う | DevelopersIO

                いわさです。 AWS Device FarmはAWS上でホストされているデバイスでテストを行うことが出来るサービスですが、モバイルだけでなくデスクトップブラウザでもテストを行うことが出来ます。 最近Device Farmのデスクトップブラウザ機能にアップデートがあったので試してみたかったのですが、そもそもDevice Farmでデスクトップブラウザテストを実施したことがなかったので本日はまずそこから始めてみました。 デスクトップブラウザテストの仕組み Remote WebDriver モバイルデバイスでテストを実施する場合はAppiumを使ったテストコードをDevice Farmへアップロードし、クラウドでホストされたデバイスをターゲットにDevice Farm上でテストコードが実行されます。 これについては以前ブログ記事にしています。 デスクトップブラウザの場合は、SeleniumのRe

                  AWS Device Farmでデスクトップブラウザテストを行う | DevelopersIO
                • 【Python Selenium】#shadow-rootのスクレイピング方法 - まろブログ

                  最近趣味でPython のSeleniumを使ってスクレイピングしているんだが なぜか要素が取得できないことがある。 技術的な原因としては 以下2点のことがあるみたい。 取得したい要素にiframeが使われている 取得したい要素がshadow-rootで囲まれている この内、「1.iframeが含まれている場合のスクレイピング」については ネットでググれば大抵のこと書いてあるから割愛したい。 ここでは「2. shadow-rootが使われた場合のスクレイピング」についてまとめる。 ちなみに私自身、ITエンジニアでもないタダのド素人だから 素人目にみてわかるように書きたいと思う。 ※玄人の人は許してね ちなみにshadow-root攻略に3日かかった そのくらい希少価値があるものだと思いたい。 1. shadow-rootについて 2.shadow-root内のスクレイピング方法 下準備 3

                    【Python Selenium】#shadow-rootのスクレイピング方法 - まろブログ
                  • Selenium入門 Pythonでブラウザを自動化したい方必読! - AI Academy Media

                    SeleniumとChromeDriver SeleniumはWebブラウザで行うクリック操作やキーボード入力などをプログラム上から自動で操作できるようにしたライブラリで ChromeDriverはChromeブラウザをプログラムで動かす為のドライバーです。 この2つを使うことで、SeleniumでChromeブラウザを操作してログインすることが可能です。 またこの2つを組み合わせて使うことで、次のことが可能になります。 ・スクレイピング ・ブラウザの自動操作(次へボタンや購入ボタンなどを自動で押すなど) ・システムの自動テスト ・非同期サイトのスクレイピング Seleniumのインストールは次のようにターミナルおよびコマンドプロントで打ち込み実行することで、インストール出来ます。 pip install selenium Chrome Driverのインストールは下記リンクから飛べます。

                      Selenium入門 Pythonでブラウザを自動化したい方必読! - AI Academy Media
                    • 業務自動化これ一本!? KNIME 初心者への完全ガイド! KNIMEの使い方 入門から応用まで - デジタル推進課

                      本ブログでは、KNIME 初心者のための完全ガイドを作成しています。 KNIME初心者でもこれだけやれば、「KNIMEなんて簡単!」「自動化?まかせて!」「まだExcelでレポート作ってるの?」と言えるような人になれるようになることを想定しています。 Excelしか使ったことない・使う気のない方々に、KNIMEを使ってもらえるよう、私が実際に某外資系企業で教えているノウハウを惜しみなく掲載中です。 自動化ツールKNIMEを社員全員が使える、ハイテク企業を目指しましょう! KNIME 社内研修用動画、公開しました! Udemy Business でも受講可能になりました! 【KNIME入門】 業務自動化これ一本!? 公式認定講師が教えるKNIME使い方完全ガイド! | Udemy 社内トレーニング用動画として使用いただければと思います! v5系~の最新操作画面に対応しており、Excelの自動

                        業務自動化これ一本!? KNIME 初心者への完全ガイド! KNIMEの使い方 入門から応用まで - デジタル推進課
                      • Python × Selenium × Cloud Runで手軽にブラウザ操作botを作ってみよう! - asoview! Tech Blog

                        アソビューでふるさと納税事業・ギフト事業の開発責任者をしております、川又です。 アソビューでは「アソビュー!」「ウラカタ」に次ぐ第3の主要サービスを目指し、 新規事業として「アソビュー!ふるさと納税」「アソビュー!ギフト」を展開しております。 furusato.asoview.com store.asoview.com これら新規事業の開発責任者とは名ばかりで、少数精鋭な開発チームなので私も第一線で様々なシステムの開発を行っています。 学生の頃からパソコンを駆使して身の回りの課題を解決することが好きだったため、これからも開発を続けて行きたいものです。 さて、今回はそんな私がプライベートで「とあるサイトでの予約を自動化したい」という怠惰願望から 自動でブラウザを操作し予約ボタンをポチッと押してくれるbotを開発しましたので、botを構築・デプロイするまでの流れをご紹介したいと思います。 ※今

                          Python × Selenium × Cloud Runで手軽にブラウザ操作botを作ってみよう! - asoview! Tech Blog
                        • PythonでSeleniumするときに書いておいたほうがいいコード - Qiita

                          from selenium import webdriver from selenium.webdriver.common.by import By from webdriver_manager.chrome import ChromeDriverManager from selenium.webdriver.chrome.service import Service options = webdriver.ChromeOptions() options.add_argument("start-maximized") # 画面表示を最大にする options.add_experimental_option("excludeSwitches", ["enable-logging"]) # よくわからん長文をコンソールに表示させない s = Service(ChromeDriverManage

                            PythonでSeleniumするときに書いておいたほうがいいコード - Qiita
                          • GitHub Actionsを利用したE2E自動化テストの実現 ~ Achieving E2E Automated Testing with GitHub Actions ~ 利用GitHub Actions实现E2E自动化测试 - スタディサプリ Product Team Blog

                            こんにちは。スタディサプリのQAチームです。 今回のBlogではスタディサプリで実施している自動化テストの一部の取り組みについて紹介させていただきます。 なお、スタディサプリQAチームの特性を活かし、本記事については日英中3言語で記載します。より多くのオーディエンスに読んで頂ければ嬉しいです。 自動化する動機 まず、なぜ自動化テストを導入するのでしょうか。 1. 新規機能が追加される度に、既存機能への影響を確認するための回帰テストをしなければなりません。 2. 繰り返し同じテストを手動実行することにより、テストコストが増加します。 3. 人間が実施すると、人為的ミスによる不具合の検出漏れが発生してしまう可能性が否定できません。 そのため、品質を担保した上でより早くリリースすることを目的とし自動化を導入しました。 現在の開発およびテストフロー QAが回帰テストの自動化テストスクリプトをGit

                              GitHub Actionsを利用したE2E自動化テストの実現 ~ Achieving E2E Automated Testing with GitHub Actions ~ 利用GitHub Actions实现E2E自动化测试 - スタディサプリ Product Team Blog
                            • python×selenium!つい勢いでbenefit stationの自動ログインスクリプトを作ってしまった! - かずきち。の日記

                              benefit stationとは? 知っている方も多いと思いますが、企業が導入している福利厚生サイトです。 飲食店やレジャー施設の割引情報が掲載されている。 がしかし、ログインが必要なのである。 引用:https://bs.benefit-one.co.jp/bs/pages/bs/top/top.faces こんなインターフェースでトップ画面にログイン画面がある。 人間がIDとパスワードを入力しないといけないわけだ。 大問題である。 ここのログインを突破して、中の福利厚生情報を全部抜きたい。 このログイン、スクリプトで突破しましょう。 使ったライブラリなどは import time # スリープを使うために必要 from selenium import webdriver # Webブラウザを自動操作する(python -m pip install selenium) import c

                                python×selenium!つい勢いでbenefit stationの自動ログインスクリプトを作ってしまった! - かずきち。の日記
                              • WebスクレイピングでGoogleの検索結果を取得しよう!(Python)

                                Pythonで作れる代表的なプログラムとしてWebスクレイピングが挙げられます。これは主にライブラリを活用して実行するので、Pythonを覚えたての初心者でも簡単に作ることが出来ます。 今回はPythonを使い、Googleの検索結果に表示された記事のタイトル・URLをExcelに書き出すプログラムの作り方を紹介します。 Webスクレイピングとは? Webスクレイピングとは、Web上のサイトから任意の情報を自動で取得する技術のこと。出したデータを加工してファイルとして出力したり、データベース上にデータを溜めることもできます。 一般的にはホームページから大量の情報を取得したい時に使われますが、今回のように検索エンジンの結果一覧にもスクレイピングを実行することが可能です。 ブログやホームページを運営するうえで欠かせない作業が、ターゲットキーワードによる検索結果の把握です。上位表示されている競合

                                  WebスクレイピングでGoogleの検索結果を取得しよう!(Python)
                                • TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する|シマ

                                  TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する かつて無料で提供されていたTwitter APIは、イーロン・マスクによる買収などなんやかんやあって有料化されました。有料プランもあるにはありますが、そこそこの価格とそこそこの制限がかかっており、趣味レベルで手を出すのはちょっと憚られる感じのプランになっています。 そこで、TwitterAPIの代替手段として、Yahoo!リアルタイム検索をPythonでスクレイピングすることでツイート推移のデータを取得することにしました。この記事では、その手法(とコード)について書いていこうと思います。 Yahoo!リアルタイム検索とはYahoo!リアルタイム検索は、Yahoo!が提供しているTwitterの検索サービスです。ツイート検索やトレンドなどを確認することができます。とて

                                    TwitterAPIが死んだので、Yahoo!リアルタイム検索をPythonでスクレイピングしてツイート数のデータを取得する|シマ
                                  • Google ColaboratoryでSeleniumを使うための設定方法 | DevelopersIO

                                    データアナリティクス事業本部のueharaです。 今回はGoogle ColaboratoryでPythonからSeleniumを使うための設定方法を紹介したいと思います。 はじめに 2023年5月時点では、Google Colaboratory上で単純に!apt install chromium-chromedriverでchromedriverをインストールした後、Seleniumを実行しようとしても以下のようなエラーが発生し強制終了してしまいます。 WebDriverException: Message: Service /usr/bin/chromedriver unexpectedly exited. Status code was: 1 これは、今年の1/18にColabのデフォルトのランタイムが(数年ぶりに)Ubuntu 18.04 LTSからUbuntu 20.04 LTS

                                      Google ColaboratoryでSeleniumを使うための設定方法 | DevelopersIO
                                    • 【Network pharmacology】PubChemを用いた漢方成分の抽出【In silico創薬】 - LabCode

                                      4. ChromeDriverのインストール(Macユーザー向け) brew install chromedriver このコマンドは Mac のユーザーが selenium を使うために必要なドライバ chromedriver をインストールします。 brew はMac用のパッケージ管理ソフトです。 chromedriver は、SeleniumがGoogle Chromeを操作するために必要な「仲介役」です。 注意:Chrome本体のバージョンとドライバのバージョンを合わせる必要があります。 Windowsの場合は、公式サイトからChromeDriverをダウンロードしてパスを通す必要があります。 5. 必要なライブラリのインストール② pip install selenium pandas tqdm 一部重複していますが問題ありません(すでに入っていればスキップされます)。ここでは

                                      • The AI-Native Software Engineer

                                        An AI-native software engineer is one who deeply integrates AI into their daily workflow, treating it as a partner to amplify their abilities. This requires a fundamental mindset shift. Instead of thinking “AI might replace me” an AI-native engineer asks for every task: “Could AI help me do this faster, better, or differently?”. The mindset is optimistic and proactive - you see AI as a multiplier

                                          The AI-Native Software Engineer
                                        • Selenium Python クロームドライバー(chromedriver.exe)の自動インストール - Qiita

                                          環境:WIndows10 pythonバージョン:3.8.32 chromedriver.exeの自動インストール(更新も自動) 以下の本にchromedriver.exeの自動インストールの方法があったので自分の環境に合わせてメモします。↓ chromedriver.exeにパスが通ってなくても、プログラムをexeファイル化しても、自動でインストールされました。 スクレイピング・ハッキングラボ:アマゾンのページ webdriver_manager webdriver_manager webdriver_managerを使うとchromedriver.exeを自動でインストールしてくれます。 chromedriver.exeを自動でインストールしてヤフーに接続するサンプル from selenium import webdriver from selenium.webdriver.chro

                                            Selenium Python クロームドライバー(chromedriver.exe)の自動インストール - Qiita
                                          • Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説

                                            Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説 2020年4月16日 プログラミング takatan69 PythonはWebスクレイピングするのに大変便利な言語です。ライブラリーが充実しているため、簡単にWeb上のデータを取得することができるのです。今回はPythonで可能な2種類のスクレイピングの手法についてまとめてみました。 目次 Webスクレイピングを実施するために知っておくべきこと静的なhtmlからデータを取得する(BeautifulSoup4)動的にJavaScriptで出力されるhtmlのデータを取得する(Selenium & ChromeDriver )Webサイトのキャプチャを取得するには?まとめ 1. スクレイピングを実施するために知っておくべきこと まずスクレイピングをする前に知っ

                                              Pythonスクレイピング:JavaScriptによる動的ページ、静的ページ、キャプチャ取得のそれぞれの手法をサンプルコード付きで解説
                                            • Linux の CUI 環境で Google Chromeを動かす - シナプス技術者ブログ

                                              株式会社シナプス技術部ネットワーク課の杉原です。 これから、Linux の CUI 環境で Google Chromeを動かす方法についてご説明いたします。 GUI と CUI について GUI(Graphical User Interface) GUIとは、画面上に視覚的な画像や図形が用いられているインターフェイスのことです。 キーボードとマウスを使って画面上のテキストフォームやボタンなどのパーツを動かすことで、プログラムを実行します。 普段、みなさんが使っているPCやスマートフォンの画面がGUIにあたります。 CUI(Character User Interface) CUIは画面上に文字情報のみが表示されるインターフェイスのことです。 マウスを使わずキーボードでコマンドラインを入力することで操作を行います。 現在、ネットワーク装置やUNIX系サーバーはCUIでの操作が主流になってます

                                                Linux の CUI 環境で Google Chromeを動かす - シナプス技術者ブログ
                                              • Docker + Selenium + arm64 - Just a Note for Hobby

                                                When I tried to use Selenium on RaspberryPi whose OS is Ubuntu, I couldn't do it because any image of SeleniumHQ/docker-selenium doesn't support arm64. I tried another way, which is downloading chromedriver from https://chromedriver.chromium.org/downloads, but it didn't work. I was completely exhausted. That's why I'm writing how to manage to do Selenium on the device . Seleniarm Run a container I

                                                  Docker + Selenium + arm64 - Just a Note for Hobby
                                                • 【python】メンドクサイを自動にさせてみた3【SlackBot編】 - Qiita

                                                  この記事について 最近iOSアプリで20円ばかり儲けた凄腕プログラマー(自称)がサラリーマンしている仕事の一部がめんどくさかったり、誰かの人的ミスのせいでなんか怒られたりと嫌になりそうなことを、プログラムを作ってサクッと解決★ 今回は送迎の有無をpythonを使って判別し、slackに放り投げて通知を送ることで、見落としミスがなくなるようにしました。 背景には、今時宿泊者名簿をイチイチ紙に出力して、今日の送迎の有無を確認しているのですが、その出力するシステムがツギハギだらけのもので、予期せぬ動作をすることがあります。 今回は、送迎あり・なしのラジオボタンがあるのですが、ありのボタンを押しても、その下にある備考欄が空欄だと、紙に出力されないというわけわかんない不具合がありました。 何言ってるのかわからないかと思いますが、私にもわかりません。 何をした? 1.pythonを使います。 2.se

                                                    【python】メンドクサイを自動にさせてみた3【SlackBot編】 - Qiita
                                                  • サーバーレスなSelenium実行環境でブラウザのスクショをS3に保存する【AWS LambdaとServerless Framework編】 - Qiita

                                                    0. はじめに こんにちは。都内でエンジニアをしている、@gkzvoiceです。 今回はホコリを被っていた「AWS Lamda上でSelenium/Headless Chrome」の実行環境の構築手順を供養しようと思います笑。 勤怠打刻プログラムを作ろうかなと思ったのですが、あれがあれする気もしなくもないと考えて。 なお、本記事では、Serverless Frameworkを使いますが、そのインストール手順や一般的な使い方は、深く取り扱いません。 手前味噌ですが、下記の記事をご参照ください。 AWS LambdaとServerless Frameworkで爆速で作るTwitterbot 1. 目次 環境/バージョン情報 AWS Lambda上でSelenium環境を構築するポイント chromedriverとheadless-chromeのインストール方法 Seleniumファイルのデプロ

                                                      サーバーレスなSelenium実行環境でブラウザのスクショをS3に保存する【AWS LambdaとServerless Framework編】 - Qiita
                                                    • selenium4 で スクレイピング - Qiita

                                                      yum -y install libX11 GConf2 fontconfig yum -y install ipa-gothic-fonts ipa-mincho-fonts ipa-pgothic-fonts ipa-pmincho-fonts fc-cache -fv yum -y install google-chrome-stable libOSMesa python3 -m pip install selenium python3 -m pip install webdriver-manager from selenium import webdriver from selenium.webdriver import ChromeOptions from selenium.webdriver.support.ui import WebDriverWait from seleni

                                                        selenium4 で スクレイピング - Qiita
                                                      • 【Python】seleniumを使ってVPS上でスクレイピングする方法【selenium】 - Qiita

                                                        sudo apt-get install libappindicator1 fonts-liberation sudo apt-get install xdg-utils libxss1 curl -O https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb sudo dpkg -i google-chrome-stable_current_amd64.deb seleniumはchromedriverを使うので、ダウンロードしてきて、実行ファイルと同じディレクトリに配置する。 URL:ChromeDriver - WebDriver for Chrome https://sites.google.com/a/chromium.org/chromedriver/downloads ↑上記の適するバー

                                                          【Python】seleniumを使ってVPS上でスクレイピングする方法【selenium】 - Qiita
                                                        • ChatGPT時代に必要かも!? Pythonで実行するファイルパース(HTML編) | DevelopersIO

                                                          コアとしては、GPL 3ライセンスではhtml2text、trafilatura、それ以外のライセンスでは、BeautifulSoup4、unstructured(lxml)、Readability.jsが挙げられます。 ラッパーを含みで一つずつ動かしてみたいと思います。 試してみた 準備 pip install llama-index html2text trafilatura langchain unstructured requests pip install git+https://github.com/alan-turing-institute/ReadabiliPy.git@master#egg=readabilipy readabilipyは、pip install readabilipyで入るバージョン0.2.0がWindowsの文字コードに対応できていなかったので、git

                                                            ChatGPT時代に必要かも!? Pythonで実行するファイルパース(HTML編) | DevelopersIO
                                                          • Teamsの個人チャットへ自動送信する(2段階認証回避) - Qiita

                                                            はじめに お久しぶりです。プロコン間に合いませんでした。次はきっと間に合わせます(次があったら)。 今回の記事は、Teamsの個人チャットへ、メッセージを自動送信するプログラムの作成について書いたものです。バイト先で必要になったので、作りました。 意外と躓きポイントがあったので大変でした。躓いたのは、ログイン(2段階認証)と、seleniumの要素の取得(classでfindする時に空白を含んではいけない)です。一応、githubにプログラムを公開しておきます。使う人がいればですが、好きに使ってください。 概要 本記事で解説する手法は、「Teamsの個人チャットへメッセージを自動送信する」ものである。 従来のTeasmへ自動送信する手段としてIncoming Webhook[1]というツールがあるが、チーム単位でしか操作できない特徴があり、自動送信される相手はそのチームに参加する必要がある

                                                              Teamsの個人チャットへ自動送信する(2段階認証回避) - Qiita
                                                            • pythonで注文APIを使う方法(ヤフーショッピング,Qoo10,au pay マーケット) - Qiita

                                                              記事を書くきっかけ 自身で物販システムを構築したときに解説記事が皆無だったため本記事を執筆することにしました。 ※構築した物販システムは下記の動画で紹介しております。 対象の読者像 ・pythonで注文APIを使ってみたい方 ・ヤフーショッピング、Qoo10、au payマーケットの注文APIの違いを理解したい方 ・python以外で注文API使用したいけど、解説記事が見当たらなくて困っている方 ※pythonでスクレイピング経験がある方なら理解できるレベルと思います。 事前にインストールが必要なライブラリ 事前に下記のリンク先を参考にをpip installして下さい。 ・requests ・selenium ※selenium3をインストールして下さい 受注APIの解説 事前準備 公式ソース 上記リンク先の1~5までを実施します。 ※注文APIを利用できるまでに約1週間程度かかります

                                                                pythonで注文APIを使う方法(ヤフーショッピング,Qoo10,au pay マーケット) - Qiita
                                                              • Web Scraping without getting blocked (2025 Solutions)

                                                                Web scraping, or crawling, is the process of fetching data from a third-party website by downloading and parsing the HTML code to extract the data you need. "But why don't you use the API for this?" Not every website offers an API, and those that do might not expose all the information you need. Therefore, scraping often becomes the only viable solution to extract website data. There are numerous

                                                                  Web Scraping without getting blocked (2025 Solutions)
                                                                • Webアプリケーションを自動で操作してみよう | へっぽこ実験ブログ

                                                                  自動操作を行う場合、id、name、classなどを利用して要素を指定することになるので、属性値をメモしておきましょう。 5.同様にボタンについても属性を調べます。その結果は以下のようになります。 <input class="gNO89b" value="Google 検索" aria-label="Google 検索" name="btnK" type="submit" data-ved="0ahUKEwiC0u6iu4nlAhXwyIsBHWwTBHcQ4dUDCAo"> 属性 値 ここで調べた属性を利用して要素を特定して自動操作を行うことになります。。 また、今回はChromeでのやり方を紹介しましたが、他のブラウザでも同様のことが可能です。同じWebアプリケーションを使用していてもブラウザによって出力される内容が異なる可能性もあるので、自動操作を行うブラウザを使用して要素を調べるよ

                                                                    Webアプリケーションを自動で操作してみよう | へっぽこ実験ブログ
                                                                  • python(パイソン)でSBI証券にログイン

                                                                    python(パイソン)でSBI証券にログインするコードまずは結論から。 # coding: utf-8 #-------------------------------------------------------------------------------------------------- #SBI証券にアクセスしてログインする #-------------------------------------------------------------------------------------------------- from selenium import webdriver#seleniumをインポート #---------------------------------------------------------- #seleniumの設定 #-------

                                                                      python(パイソン)でSBI証券にログイン
                                                                    • Bundling binary tools in Python wheels

                                                                      23rd May 2022 I spotted a new (to me) pattern which I think is pretty interesting: projects are bundling compiled binary applications as part of their Python packaging wheels. I think it’s really neat. pip install ziglang Zig is a new programming language lead by Andrew Kelley that sits somewhere near Rust: Wikipedia calls it an “imperative, general-purpose, statically typed, compiled system progr

                                                                        Bundling binary tools in Python wheels
                                                                      1