並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 383 件 / 383件

新着順 人気順

csvの検索結果361 - 383 件 / 383件

  • PowerShellでCSVのカラムを抽出する(Get-Content,Import-Csv) - Qiita

    PowerShellでCSVのカラムを抽出する際に、CSVファイルの形式違いでちょっとはまりました。 背景的には元データの行数が多すぎてExcelで処理が出来ないから。 ちなみに壁打ち相手はChatGPTなので、どんな質問したかとかもメモ。 したいこと 以下のようなCSVファイルの特定カラムを抽出したい。 ※カンマ区切り、ダブルクォーテーションで括られている。 "Column1","Column2","Column3" "Value1","Value2","Value3" "Value1","Value2","Value3"

      PowerShellでCSVのカラムを抽出する(Get-Content,Import-Csv) - Qiita
    • 初心者必見!DifyナレッジAPIの導入方法と効率的な活用術 | アールエフェクト

      Difyを活用してRAG(Retrieval-Augmented Generation)を行う際、多くの人がDifyの画面を通じてナレッジにファイルをアップロードしているのではないでしょうか。しかし、Difyの画面を使わずにAPIを経由してナレッジにアクセスできればさらなる業務効率化が可能になると考えたことはありませんか? 実は、Difyには「ナレッジAPI」という機能が備わっておりこのAPIを利用することでプログラム経由でナレッジの情報に直接アクセスすることが可能です。 DifyはGUIを活用してノーコードでアプリを作成できる点が最大のメリットですが、APIを利用することでそのメリットをさらに拡張することができます。具体的には、自動化や外部システムとの連携が可能になり業務フローを一層効率化できます。 Difyをすでに使いこなしている方やさらなる効率化に興味のある方は、ぜひ本記事で「ナレッ

        初心者必見!DifyナレッジAPIの導入方法と効率的な活用術 | アールエフェクト
      • Stream_Filter_Mbstringを使えばCSVの処理が捗る!!

        巨大なSJISのCSVファイルをfgetcsv関数で処理する – hnwの日記 これはすごい! と思ったので、ベンチマークだけ書いておきます これを使えばどれだけ巨大なcsvでも適切に負荷を少なく処理することが出来ますね 環境 CentOS5.6 PHP5.4 csvは245741755byte 13万行ほどのものを利用 Stream_Filter_Mbstringを利用 詳しくはこちらで 巨大なSJISのCSVファイルをfgetcsv関数で処理する – hnwの日記 function by_stream_filter($file) { require_once 'Stream/Filter/Mbstring.php'; $ret = stream_filter_register("convert.mbstring.*", "Stream_Filter_Mbstring"); $fp =

          Stream_Filter_Mbstringを使えばCSVの処理が捗る!!
        • Python>pandas>DataFrame:指定行の抽出 - Qiita

          1.概要 初心者の自分はDataFrameでの行の抽出を練習するときにちょくちょく混乱。。。 今後の混乱予防対策のために少し操作方法を整理。 2.DataFrameの準備 以下のDataFramewoを操作して行の抽出操作を確認する。 import pandas as pd import numpy as np df = pd.DataFrame(np.arange(12).reshape(4,3), index=['R1','R2', 'R3', 'R4'], columns=['C1','C2', 'C3'])

            Python>pandas>DataFrame:指定行の抽出 - Qiita
          • NumPy配列をCSVファイルに変換する

            ■Python 今回のPythonのバージョンは、「3.8.5」を使用しています。(Windows10)(pythonランチャーでの確認) ■Dataframe.to_csv()関数を使用するでは、早速NumPy配列をCSVファイルに変換していきます。 ■コードimport pandas as pd import numpy as np array_test = np.arange(1,21).reshape(4,5) print(array_test) df_np_array = pd.DataFrame(array_test) df_np_array.to_csv(r"C:\Users\user\test\df_np_array.csv")NumPy配列をCSVファイルに変換する場合は、pandasモジュール,numpyモジュールを呼び出します。 呼び出した後に、array_testと

              NumPy配列をCSVファイルに変換する
            • ダブルクオート引用符の CSV を Glue クローラでテーブル作成時に認識させる - ablog

              Glue クローラでテーブル作成後にテーブルを編集する。 Serde シリアル化ライブラリを org.apache.hadoop.hive.serde2.OpenCSVSerde に変更 Serde パラメータから field.delim : , を削除 Serde パラメータに以下を追加 escapeChar : \ quoteChar : " separatorChar : , 参考 S3 にあるダブルクォーテーション引用符の CSV データを Glue のクローラで検出し、Athena でクエリ実行する | DevelopersIO

                ダブルクオート引用符の CSV を Glue クローラでテーブル作成時に認識させる - ablog
              • CSV経営を支えるアフラック生命保険株式会社のコーポレートガバナンス | アフラックの価値創造ストーリー | 企業情報

                お客様、社員、ビジネスパートナー、株主及び社会等のステークホルダーの負託・信頼に応え、健全で持続的な成長と中長期的な企業価値の向上を実現するうえで、強固なコーポレートガバナンス態勢が不可欠です。当社は、各ステークホルダーの視点から、当社の健全な経営と適切な業務運営を確保するために準拠すべき考え方及び方向性を定め、ステークホルダー間のバランスとあるべき姿を絶えず考えながら、CSV経営を実践しています。 また、超VUCAの時代にあって、社会の変化や多様化がこれまでと全く違うレベルで加速しているなか、新たなニーズを充たし、お客様に感動いただける商品やサービスを迅速かつ適時に提供することが、お客様をはじめとするステークホルダーの期待に応えることになります。 超VUCAの時代のなかで経営のスピードを上げるためには、業務執行の機動性の向上が求められ、実効性の高いコーポレートガバナンス態勢がこれを可能と

                • C++でcsv fileを要素数指定なしの2D vectorに格納する方法の備忘録 - Qiita

                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                    C++でcsv fileを要素数指定なしの2D vectorに格納する方法の備忘録 - Qiita
                  • 4.取得した結果をcsvに保存する

                    前の記事のおさらいと本記事でやること 前の記事へ前の記事では検索結果の1ページ目の要素の取得方法を解説しました。この記事では、次のページのURLを取得し、ループ文によって検索結果のすべてのペ... 前の記事ではすべての検索結果のページの要素の取得方法を解説しました。 この記事では、取得した結果をCSVに保存し、また検索キーワードの入力をコンソール上で行う応用も解説します。 スクレイピングした結果をCSVに保存する 前の記事までで作ったmain()関数にCSVを保存するコードを追記しましょう。 def main(): url = "https://townwork.net/joSrchRsltList/?fw=プログラミング" columns = ["rid", "company", "title", "salary", "access", "term", "timelimit"] df =

                      4.取得した結果をcsvに保存する
                    • 知っておくと便利系(随時更新) - Qiita

                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                        知っておくと便利系(随時更新) - Qiita
                      • ObsidianでインラインJSを使ってみる - Jazzと読書の日々

                        書いている途中にスクリプトを埋め込む。 文章とプログラミングの融合。 そんな変な使い方がObsidianならできます。 特殊すぎて頭の切り替えが追いつかない。 基本形 前回、数式を埋め込めることが判明しました。 OK? 何か難しいですよね。 でも計算式を残すと、なぜその計算をしたか理由もわかる。 反面、他のアプリで開いても計算するわけではない。 一長一短です。 応用編 数式が一本ならいいけど、複数の場合はどうすればいいのでしょうか。 どうやらコンマ区切りで書くことができます。 `$= a=11, b=22, a+b` 変数を使って公式に代入したい場合ですね。 これなら数値を変えながら計算結果を参照できる。 DataviewJS もっと複雑な場合はどうしたらいいでしょうか。 それはdataviewjsにしちゃえばいいわけです。 ```dataviewjs a=11 b=22 dv.span(

                          ObsidianでインラインJSを使ってみる - Jazzと読書の日々
                        • CSVをExcelで開いた時の確認ダイアログ - Qiita

                          CSVをExcelで開いた時にこのようなダイアログを見たことあるかと思います。 CSVデータによくあるデータの先頭にゼロがあるデータのゼロを削除するかどうかの確認ダイアログ。 「変換」か「変換しない」の確認ですね。 この確認ダイアログのチェックボックスにチェックを入れた場合、次回から通知がなく同じ処理をしてくれます。 常に「変換」か「変換しない」のであれば良いのですがデータによってゼロを削除したい時もあれば削除して欲しくないケースがあるかと思います。 再度、確認ダイアログを表示したい場合は以下の場所から変更可能です。 ファイル -> その他 -> オプション -> データ -> 追加オプション こんなことを書いておきながらCSVをExcelで開くことはあまりなく VSCodeの拡張機能 Edit CSV で確認、編集することが大半です。

                          • PHPのfputcsv()関数を使用しCSV形式でファイルに書き込み

                            PHPのfputcsv()関数を使用しCSV形式で、開いているファイルに書き込みしてみます。 fputcsv()関数は、指定した行をCSV形式で、開いているファイルに書き込みすることができます。 ■基本的な構文fputcsv(file, fields, separator, enclosure, escape)fileは、書き込みを行う開いているファイルを指定します。 fieldsは、どの配列からデータを取得するかを指定します。 separatorは、フィールドの区切りを指定する文字。デフォルトはカンマ( , )となります。オプションです。 enclosureは、フィールドの囲み文字を指定する文字。デフォルトはダブルクォーテーション(”)となります。オプションです。 escapeは、エスケープキャラクターを指定します。デフォルトは「\\」です。空の文字列(””)を指定すると、エスケープ機能

                              PHPのfputcsv()関数を使用しCSV形式でファイルに書き込み
                            • CakePHP、CSVファイルをインポート | クロジカ

                              ホーム / ハック / CakePHP、CSVファイルをインポート

                                CakePHP、CSVファイルをインポート | クロジカ
                              • Go言語でCSVをJSONに変換する - 嵐の小舟より

                                たまに、CSV データを JSON 形式に変換したくなることがあります。 というのも、元データとしていただくのは大抵 Excel ファイルで、 とりあえず CSV にエクスポートしただけでは使いにくいからです。 それくらいWeb上のツールであるんじゃないの? とちょっと検索してみたところ、セルに改行を含むケースに対応しているものが見つからなかったので、 Go 言語で実装してみました。 環境を整えてある方なら以下のコマンドで実行ファイルをインストールできます。 go install github.com/tmrtmhr/csv2json 入力としては以下のようなものを想定しています。 col1 col2 col3 1 2 3 4 "5 67" 8 9 10 11 出力は以下のようになります。ヘッダ行がキーになり、値はすべて文字列です。 [ { "col1": "1", "col2": "2"

                                • CSV取り込みの高速化 - Qiita

                                  はじめに クライアントからCSVをFTPでもらい、DBに取り込む機能はシステムでは、良くあるユースケースだと思います。 サービス開始当初は、クライアントの規模も小さく、CSV取り込みの処理時間を気にする必要ないのですが、サービスが大きくなると、処理時間が長くなってテコ入れする必要があるのは、よくあるケースだと思います。 ここでは、CSV取り込みの高速化に対するアプローチを紹介します。 ETL CSV取り込み処理は、設計のアプローチとしては、ETL(Extract/Transform/Load)になると思います。 参考までにETLのライブラリは以下になります。 Embulk (https://www.embulk.org/) Apache Airflow (https://airflow.apache.org/) Luigi (https://github.com/spotify/luigi

                                    CSV取り込みの高速化 - Qiita
                                  • 1. 基本的な使い方 — Super CSV Annotation 2.3 ドキュメント

                                    1<dependency> 2 <groupId>ch.qos.logback</groupId> 3 <artifactId>logback-classic</artifactId> 4 <version>1.2.11</version> 5 <scope>test</scope> 6</dependency> 1<?xml version="1.0" encoding="UTF-8"?> 2<configuration> 3 <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"> 4 <encoder> 5 <Pattern>.%d{HH:mm:ss.SSS} [%thread] %-5level %logger{15} - %msg %n</Pattern> 6 </encoder> 7 <filte

                                    • Pythonでpdfデータにあるテーブルデータを一括でcsvに直す方法 - Qiita

                                      何ページにもわたるテーブルデータ(pdf形式)をpythonとかでいじりたい時に! 私が持っていたpdfデータはページごとに注釈がついていたりして、どのpdf/csvの変換サイトでもうまくできませんでした。 #pdfからcsvに変換するのに使う。ページ指定で1枚ずつしか一気に使えないです。 from tabula import wrapper #pdfのページ数を数えるのに使う import PyPDF2 #任意のファイルパスをここに記載 FILE_PATH = "***" #ページ数を取得 with open(FILE_PATH, mode='rb') as f: pages = PyPDF2.PdfFileReader(f).getNumPages() #このデータフレームに全ページのデータを入れます df = pd.DataFrame(columns = "欲しいカラム名") #全ペ

                                        Pythonでpdfデータにあるテーブルデータを一括でcsvに直す方法 - Qiita
                                      • Sentryのissue一覧をcsv形式でexportする - Qiita

                                        ※queryに指定できるパラメータは以下を参照してください。 https://docs.sentry.io/product/sentry-basics/search/#issue-properties API Reference https://docs.sentry.io/api/events/get-project-group-index/ issues一覧をcsv形式でエクスポートする 指定期間内のissue一覧の指定項目をcsv形式で./data/ディレクトリにエクスポートします。 手順 以下の手順に沿って実行してください。 1. 事前にAuth Tokenを作成します https://sentry.io/settings/account/api/auth-tokens/ 2. 以下のpythonプログラムと同階層に data ディレクトリを作成してください 3. paramsのパ

                                          Sentryのissue一覧をcsv形式でexportする - Qiita
                                        • golangでcsvファイルを書き出し - エンジニアはこわくない

                                          golangでcsvを作成したかったので、調べました。 さすがgolangって感じでサクッと出来たので書きたいと思います。 csvファイルの書き出し オプション csvファイルの書き出し csvを書き出すコードは以下になります。 import ( "encoding/csv" "log" "os" ) var sample = []string{ "sample_1", "sample_2", "sample_3", } func main() { //書き込みファイル作成 file, err := os.Create("/出力したいパス/sample.csv") if err != nil { log.Println(err) } defer file.Close() writer := csv.NewWriter(file) // utf8 writer.Write(sample) w

                                            golangでcsvファイルを書き出し - エンジニアはこわくない
                                          • Pythonで「Panadas」を使って配列データをCSV・xlsxファイルに書き込む - なろう分析記録

                                            CSVに読み書きするなら「Pandas」が定番らしい Pythonで配列(list)を簡単にCSV化する方法としては「Pandas」を使うのが一般的。 「Pandas」を使うことで簡単にCSVの読み書きが可能となる。 今回はは配列リストを書き込むサンプルコードを紹介。 サンプルコード import pandas as pd listA = ["0001", "TARO", "man"] listB = ["0002", "HANAKO", "woman"] Coulum = ['id', 'name', 'sex'] # データフレームを作成 df = pd.DataFrame([listA,listB], columns=Coulum) # CSV ファイル出力 df.to_csv("pandas_test.csv") #結果の表示 df 出力ファイル csv出力 トラブルシューティング

                                              Pythonで「Panadas」を使って配列データをCSV・xlsxファイルに書き込む - なろう分析記録
                                            • SQLAlchemy を使って Pandas のデータをDBに保存する - Qiita

                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                                                SQLAlchemy を使って Pandas のデータをDBに保存する - Qiita
                                              • Glue AWS を使用してデータをエクスポートする - AWS 規範ガイダンス

                                                翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 Glue AWS を使用してデータをエクスポートする ビッグデータシナリオ用のサーバーレス分析サービスである AWS Glue を使用して、Amazon S3 にマイSQLデータをアーカイブできます。AWS Glue は、多くのデータベースソースをサポートする広く使用されている分散クラスターコンピューティングフレームワークである Apache Spark を使用しています。 データベースから Amazon S3 へのアーカイブデータのオフロードは、Glue AWS ジョブ内の数行のコードで実行できます。AWS Glue が提供する最大の利点は、水平スケーラビリティとモデルであり pay-as-you-go、運用効率とコスト最適化を提供します。 次の図は、データベース