![](https://cdn-ak-scissors.b.st-hatena.com/image/square/8fe373c4d8ce1c95e07ca1996321c97ae08cf6b3/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9U3BhcmslRTMlODMlODglRTMlODMlQTklRTMlODMlOTYlRTMlODMlQUIlRTMlODIlQjclRTMlODMlQTUlRTMlODMlQkMlRTMlODMlODYlRTMlODIlQTMlRTMlODMlQjMlRTMlODIlQjAlRTMlODAlOENvcmcuYXBhY2hlLnNwYXJrLnNxbC5BbmFseXNpc0V4Y2VwdGlvbiUzQSUyMFJlZmVyZW5jZSUyMCUyN0hvZ2UlMjclMjBpcyUyMGFtYmlndW91cyVFMyU4MCU4RCZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnM9NWE5MjYyMGM5YjgzNGQ3MWFjMzE3ZDZiZTgyZDI1ZDE%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBkZXZuZWtvJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzYmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1hZmVlZWJjZDA3MTQyNTk1Y2ZiYzVjNTlkMmNkNjhhZQ%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D0f0fb924d2d08257c3e440210c0cec89)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Sparkトラブルシューティング「org.apache.spark.sql.AnalysisException: Reference 'Hoge' is ambiguous」 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Sparkトラブルシューティング「org.apache.spark.sql.AnalysisException: Reference 'Hoge' is ambiguous」 - Qiita
原因 読み込みデータに大文字と小文字の違いだけで同じスペルのカラムが存在していたことが原因でした。... 原因 読み込みデータに大文字と小文字の違いだけで同じスペルのカラムが存在していたことが原因でした。 hogeとHogeみたいな。 Sparkの内部のスキーマはデフォルトでは大文字と小文字を区別しないようです。jsonなどでは大文字と小文字で別々のカラム(キー)で値を持てるのでこういったエラーが出ることがあります。 対処 データを修正 大文字と小文字で同じスペルになるカラムがなくなるようにデータを修正する。 オプションを使ってSparkが大文字と小文字を区別するようにする spark.sql.caseSensitivという設定項目があるので、これをtrueにすると大文字と小文字を区別するようになります。 コード中で設定するには下記のようにします。