タグ

ブックマーク / qiita.com/KanNishida (7)

  • パワポのスライドと箇条書きが人間を駄目にする - Qiita

    パワポのスライドと箇条書きが人間を駄目にする 今から20年前の2003年、データの可視化やインフォメーションデザインの先駆者として有名なイエール大学の教授エドワード・タフティが「パワーポイントの認知スタイル」というエッセイを発表しました。 彼はこのエッセイの中で、パワーポイントのようなスライド形式はプレゼンテーション自体の質を低下させ、余計な誤解や混乱を招き、さらに言葉の使い方、論理的な説明、そして統計的な分析といったものが犠牲になるため、スライドをつくる人の思考回路にダメージを与えると主張します。 こうした主張に賛同する人は現在でも多くいて、その典型的な例がアマゾンです。アマゾンではミーティングの前に文章形式の資料が配られ、ミーティングの最初の5分はそれぞれがこの配られたレポートを黙って読むことから始まるという話は多くの方も聞いたことがあるのではないでしょうか。(リンク) 実は、アマゾン

    パワポのスライドと箇条書きが人間を駄目にする - Qiita
    rydot
    rydot 2024/03/20
  • AIのバイアスのほんとうの問題は人間が気づかないバイアスだ - Qiita

    これまでにも何度か紹介してきた、シリコンバレーのA16Zというトップクラスのベンチャーキャピタルの気鋭のアナリスト、ベネディクト・エバンスが、「AIのバイアス」についての考察をまとめていました。 いわゆる「AIのバイアス」といえば、例えば、白人の方が黒人より多い画像データで作ったAIシステムは白人を認識するのは得意だが黒人はそうでない、といったもののように、私達にとって想像つきやすいものについつい目が行ってしまいがちです。しかし実は、私達人間には認識すらできないもの、例えば光の当たり加減や、音の領域などがバイアスとしてデータに入ってきてしまった場合におきるAIのバイアスこそが、難しい問題なのではないかとベネディクトは言います。 いつものように、鋭い考察でいろいろな角度からAIのバイアスに切り込んでいきますが、彼のエッセイがおもしろいのは、もちろん彼の分析力、クリティカル・シンキング能力が素

    AIのバイアスのほんとうの問題は人間が気づかないバイアスだ - Qiita
    rydot
    rydot 2019/05/08
  • 人間の命を救うはずだったAIが政治と無知によって無視されてしまった話 - Qiita

    Photo by The Climate Reality Project on Unsplash 「優れた料理人はお客さんが育てる」と言うことばがあります。 料理べるお客さんが、それがほんとにうまいかどうかわからないと、料理人のレベルも上がらないということです。 実はAIにもそれと同じような面があります。 AIがわからない人にAIを渡しても、AIの真価は発揮できないということです。 今回は、汚染された水道管を発見することができるAI機械学習による予測モデル)をせっかく開発したにもかかわらず、結局使われなくなってしまい、そのせいで問題の水道管が今でも取り替えられず、多くの人の命が危険にさらされていると言う、アメリカのミシガン州のフリントという町で起こった話を紹介したいと思います。 以下、要約。 How a Feel-Good AI Story Went Wrong in Flint -

    人間の命を救うはずだったAIが政治と無知によって無視されてしまった話 - Qiita
    rydot
    rydot 2019/02/20
  • AI/データサイエンスのプロジェクトが失敗する10の危険なサイン - Qiita

    ここ数年日でも会社の規模を問わずAI関連のプロジェクトに関する投資が大きな規模で連日行われているように思います。こうしたAIイニシアチブは多くの場合がトップダウン、つまり社長や重役からの指示ではじまり、それに見合った実行計画をマネージャーレベルが作成し、その部下が実行もしくは外部コンサルティング会社に外注というのが多いパターンではないでしょうか。 しかし、そうしてなんとなく慌てて始まったAIに関する投資も、思ったような成果が上がっていないということで、そろそろ失望と困惑が見られるようになってきたと、少なくともこちらアメリカでは聞き始めています。こういう時に、そもそもどういった成果を当初期待していたのかというと、かなり曖昧であったり、もしくは的はずれだったりというのが往々にしてあります。これは、現在のAIに対する過剰な期待がAIの限界によって打ち砕かれた、とも言えます。業界が煽りすぎたとい

    AI/データサイエンスのプロジェクトが失敗する10の危険なサイン - Qiita
    rydot
    rydot 2018/06/01
  • AI - その革命はまだ起きていない、そして起きそうもない - Qiita

    Artificial Intelligence — The Revolution Hasn’t Happened Yet - Link 先週、データサイエンス、AI業界にとって、ターニングポイント(潮の変わり目)となるほど重要なエッセイをUC Berkeleyの教授で、統計、機械学習AIの研究者でもあるMichael Jordanという人が発表していました。もちろんあのバスケのMichael Jordanとは違います。(笑) 冗談はさておき、ここ最近のビッグデータの世界では標準になってしまったとも言えるSparkを開発したのはもともとAMP LabというUC Berkeleyの研究所のチームなのですがそこを率いていた人がこの人です。彼はシリコンバレーではもちろん、世界的にもビッグデータ、データサイエンスの世界ではかなり有名な人です。 その彼が、最近のAIという言葉に対する一般の誤解と誇大

    AI - その革命はまだ起きていない、そして起きそうもない - Qiita
    rydot
    rydot 2018/05/02
  • AIのプロジェクトを始めるとぶち当たる5つのハードル - Qiita

    現在AIに対して多くの人がもつイメージとして、Over Estimate(過剰な期待) とUnder Estimate(過小な期待)という問題があります。Over Estimate(過剰な期待)はAIを使うと全ての問題が自動的に解決されるというもので、Under Estimate(過小な期待)はAIを使えば実は簡単に解決される問題なのにそのことに気づいてもいないということです。 今日では、比較的簡単にAIを使うことのできるツールがたくさんあるので、こうした機会を利用して、自分たちのデータをもとにどんどん使ってみて、AIを使うと実際に何ができて、何ができないのか、さらにどういったことが問題になるのかなどを理解していくことで、自分なりの正しい期待値を設定していくことが重要だと思います。 最近マッキンゼーから実際にAIプロジェクトを始める時につまずくよくある5つのハードルとそれを解決するための

    AIのプロジェクトを始めるとぶち当たる5つのハードル - Qiita
    rydot
    rydot 2018/03/14
  • あまりにも多くのスタートアップがデータ分析するときに犯す4つの失敗パターン - Qiita

    ホテルを直前に予約する時に人気のあるHotel Tonightというサービスを提供しているスタートアップがこちらシリコンバレーにあります。そこでデータ分析のチームを率いているAmanda Richardsonが、スタートアップがデータを使うときによく犯す間違いをこちらの"The Four Cringe-Worthy Mistakes Too Many Startups Make with Data"という記事の中で4つにまとめていますが、今日はそちらを紹介したいと思います。これらはもちろんスタートアップに限らず、どのようなサイズの会社でも、とくに新しいデータ分析プロジェクトを始める時によく見られる失敗パターンだと思いますが、こちらの記事では間違いだけでなく、逆にこうすればいいという提案も最後にわかりやすくまとめられているので、是非参考にしてみて下さい。 それでは、以下抜粋です。 間違い1

    あまりにも多くのスタートアップがデータ分析するときに犯す4つの失敗パターン - Qiita
    rydot
    rydot 2018/02/07
  • 1