![](https://cdn-ak-scissors.b.st-hatena.com/image/square/25b740b29ef9c613d04804f568f149707f4aa4b1/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9c2Npa2l0LWxlYXJuJUUzJTgwJTgxU3BhcmsubWwlRTMlODAlODFUZW5zb3JGbG93JTIwJUUzJTgxJUE3JUU3JUI3JTlBJUU1JUJEJUEyJUU1JTlCJTlFJUU1JUI4JUIwJUUzJTgwJTlDJUVGJUJDJTg4JUVGJUJDJTkzJUVGJUJDJTg5c3BhcmsubWwmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZ0eHQtY2xpcD1lbGxpcHNpcyZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPWVkNWE2OTY1YzRhZGZlOTJkZmM4MjM0MTk2YmQ4NTUx%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTYxNiZ0eHQ9JTQwdHVkJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzYmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1lZWI4MzNhZTFkNjczN2RjZWUyN2FjMGMwZmZjZTI1ZA%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3Db769856ea58f42730448f64a92978276)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
scikit-learn、Spark.ml、TensorFlow で線形回帰〜(3)spark.ml - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
scikit-learn、Spark.ml、TensorFlow で線形回帰〜(3)spark.ml - Qiita
Sparkの機械学習ライブラリは、RDDベースAPIのmllib と DataFrameベースAPIのml の2つありますが、2.0... Sparkの機械学習ライブラリは、RDDベースAPIのmllib と DataFrameベースAPIのml の2つありますが、2.0以降は ml が推奨されているようなので、ここも ml の API を使用します。 scikit-learnの線形回帰は非常に簡単でしたが、Sparkは全てDataFrameを介するので少し面倒でした。 3.1 学習データの準備 Sparkのデータフレームは sparkのライブラリ関数でcsvファイルを読み込めば作成できます。ここは簡単と言えば簡単です。 # read data dataFile = 'sampleLR.csv' input_DF = spark.read.format("com.databricks.spark.csv").option("inferSchema", "true").load(dataFile) データ読み込みについては以下の