最近、「AIを理解したくて代数幾何の教科書を勉強しているんですよ」という人によく会う。 五年前くらい前に、note株式会社の加藤社長も「社内で代数幾何学の勉強会を開いてるんですよ」と言っていた。僕はその都度「それは全く遠回りどころか明後日の方向に向かってますよ」と言うのだがなかなか聞き入れてもらえない。 確かに、AI、特にディープラーニングに出てくる用語には、ベクトルやテンソルなど、代数幾何学で使う言葉が多い。が、敢えて言おう。 代数幾何学とAIはほとんど全く全然何も関係していないと。 なぜこのような不幸な誤解が生まれてしまうかの説明は後回しにして、意地悪をしても仕方ないので、AIを理解するために最低限知っておかなければならない用語を5つだけ紹介する。 テンソル(スカラー、ベクトル、行列など)おそらく、「テンソル」という言葉が人々を全ての混乱に向かわせている。 Wikipediaの説明は忘
6月13日にOpenAIはChatGPTのAPIのアップデートを発表しました。今回のアップデートでは、関数呼び出し機能が追加され、新モデルのgpt-4-0613とgpt-3.5-turbo-0613でこの機能が使えます。 この機能によって、外部ツールを呼び出してユーザーからの質問に答えるチャットボットの作成、自然言語からのAPIコールやデータベースクエリーへの変換、テキスト情報からの構造化データの抽出などが可能になります。 今回、ChatGPTのAPIとOpen-Meteo の API を利用して各地のお天気情報を回答するGoogle Colab用のプログラムを紹介します。 1.お天気情報プログラム以下のコードをGoogle Colabノートにコピーし、自分のAPIキーを所定の場所に記入して、セルを実行してください。 !pip install openai import openai im
上記の中には発話者を区別しれくれるサービスもある。 ただ発話者はChatGTPに入れれば勝手に区別してくるので、 正直気にしていない。 つまり分析時には整っていない発話録でも なんの問題ないというのが、まずAIの強みだ。 45分間のインタビューであれば3-5分待っていれば書き起こしは終わる。 どうしても気になるのであれば校正・発話者の分離、 特定の言葉の修正をすることもかんたんだ。 かなり丁寧にかいたプロンプトはこちら。 (機械翻訳ver) タイトル:日本語のインタビューの原稿校正ガイドライン"Target_content"を解釈し、「日本語のインタビュー原稿校正ガイドライン」を実行してください。 Target_content: [ここにインタビューの概要と目的を追加する] 日本語のインタビュー原稿校正ガイドライン: ステップ1:原稿に慣れる原稿全体を熟読して、内容、文脈、参加者の名前を理
2022年11月にChatGPTが公開され、たった1週間で100万ユーザーを超えたのをきっかけに、GoogleのBardやMicrosoftのBing AI Chatなど、大規模言語モデルを利用したチャットAIが続々とリリースされています。チャットAIを研究しているセバスティアン・ラシュカさんが、チャットAIが実用化されるまでの研究の軌跡を重要な論文24個に絞って要約しています。 Understanding Large Language Models - by Sebastian Raschka https://magazine.sebastianraschka.com/p/understanding-large-language-models ◆目次 ・主要なアーキテクチャとタスク ・スケーリングと効率性の向上 ・言語モデルを意図した方向へ誘導する ・人間のフィードバックによる強化学習(
ChatGPTを使ってデータサイエンティストの生産性を爆上げする活用術をまとめました! また、データサイエンティストがChatGPTを活用するための記事をまとめているので、こちらもぜひ参考にしてみてください。 データ前処理 「ChatGPTを使用すると、「データを分析可能な形に前処理して」といった大雑把なリクエストに対しても、すんなりと対応し、データ前処理を行ってくれます。」 今のところ、大量のデータを前処理する際にChatGPTを利用する場合は、ChatGPTに実際の前処理を行わせるのではなく、前処理用のサンプルコードを教えてもらう方が良いでしょう。 ただし、近い将来にはCSVやExcelを直接アップロード&ダウンロード可能な「Code Interpreter」というプラグインが追加される予定とのことで、実務利用が大いに現実味を帯びると考えられます。 詳細は以下のページで紹介しています!
当サイト【スタビジ】の本記事では、Meta社の開発する大規模言語モデル(LLM)であるLLaMAについて解説していきます!LLaMAはパラメータの少ない軽量モデルでありながら他のLLMに匹敵する精度を誇るモデルでオープンソース化されています。LLaMA次世代のLLaMA2やLLaMAをベースに開発されたAlpacaについても見ていきましょう! こんにちは! データサイエンティストのウマたん(@statistics1012)です! OpenAIのGPTやGoogleのPaLMなど、各社AIブームにおける覇権争いを繰り広げていますが、その中でもこの記事ではMetaが開発している大規模言語モデルのLLaMAについて解説していきたいと思います! 以下のYoutube動画でも解説していますのであわせてチェックしてみてください!
理化学研究所 革新知能統合研究センター認知行動支援技術チームは、2023年4月20日に理化学研究所にて40・50代向けの、認知症予防のための会話支援ロボット「ぼのちゃん」を使った共想法(きょうそうほう)の体験会を開催した。 認知症予防のための正しい知識を得て、早めに取り組む大切さを理解する体験会になった。 会話支援ロボット「ぼのちゃん」によって共想法を実践 現代は、高齢者の約4人に1人が認知症または認知症予備軍となっている。(2012年時点。厚生労働省老健局データから)。口腔ケア習慣の普及によって、55~60歳で歯がない人の割合は、1975年の20%から、2005年の2%まで30年間で10分の1と激減したように、認知症予防の習慣を普及させることで、認知症を大幅に減らせると理化学研究所 革新知能統合研究センター認知行動支援技術チームは考えている。 そこで、「40・50代のための認知症予防~『
野村総合研究所の塩崎氏と広瀬氏の記事*1がまた*2データ分析者に困惑を引き起こしている。「データが欠損している場合は、平均値や中央値で埋め合わせる作業を行います。」とあるのだが、欠損データ処理としてはよくない手法として知られている。 平均代入法は、欠損が完全にランダムに生じている(MCAR)とき以外は推定量にバイアスが入ると説明されることが多いが、MCARでも回帰分析などの推定に用いる場合はバイアスが入る。また、単一代入法になるので、標準誤差が過小推定される*3。名前がついているぐらい一般的なのだが、使ってはいけない過去の遺物だ。 推定前の処理としては、欠損データ列がある行を分析から除くリストワイズ法や、分析に用いる欠損データ列がある行を分析から除くペアワイズ法の方がまだよい*4。サンプルサイズの減少を避けたい場合は、単一代入法でも回帰代入などを使う方が望ましい。最近は、機械学習の前処理と
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く