健康保険証とマイナンバーカードを一体化した「マイナ保険証」。別人の情報が表示されたり、不具合で全額払いを余儀なくされるトラブルが報告されているが、そもそもマイナ保険証を使ったオンライン資格確認にも疑問が。事実上、NTTの光ファイバー通信の独占状態な一方、導入が難航するケースも少なくなく、医療機関側の不満も強いからだ。拙速なマイナ保険証化への反対世論も強まる中、政府がかたくなに推進する背景に、利権のにおいはないのか。(山田祐一郎、岸本拓也)
![マイナ保険証の資格確認はNTTの光回線で独占状態…反発されても政府が推進をやめないことと関係は?:東京新聞 TOKYO Web](https://cdn-ak-scissors.b.st-hatena.com/image/square/e6e0f8e6b1dbbb804a9a79ad2d879991042ad0a2/height=288;version=1;width=512/https%3A%2F%2Fstatic.tokyo-np.co.jp%2Fimage%2Farticle%2Fsize1%2F2%2Ff%2Fe%2F8%2F2fe8a856d4455d63ad13f1874faced7d_1.jpg)
この記事について pysparkのデータハンドリングでよく使うものをスニペット的にまとめていく。随時追記中。 勉強しながら書いているので網羅的でないのはご容赦を。 Databricks上での実行、sparkは2.3.0以降, pythonは3.6以降を利用することを想定。 既存データからDataFrameの作成 # csvk形式1(spark DataFrameから書き出されたデータなど、データが複数にまたがっている場合) df = spark.read.csv("s3://my-backet/my-data/*.csv") # csv形式1(単一のファイルの場合。そもそもあまりない状況だと思うが…。状況にもよるが後にrepartion()実行を推奨) df = spark.read.csv("s3://my-backet/my-data/data.csv") # parquet形式 df
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く