2023年に東京都立大学で非常勤講師として、学部3年生向けに「機械学習〜推薦システムを題材に〜」というテーマで講義をしました。 90分×3コマ×2日間の計6コマの集中講義で、Streamlitで映画のレコメンドアプリを実際に作ってみるなどの演習も含めたものです。 昨年、大学院生向けに同様の講義を3コマ分していたので、それを拡張する形で、最近話題の生成AIの話も1コマ分用意しました。(昨年の授業資料はこちらにあります。) 推薦システムや生成AI×推薦システムについて興味ある方のご参考になりましたら。 1日目(90分×3コマ) 推薦システムの概要 推薦システム-各推薦アルゴリズム 推薦システムの周辺技術(評価指標について)
生成AIへのプロンプト入力時に問題となる個人情報保護法の論点をまとめました。 本稿作成時点(2023年9月1日)における見解であり、今後、個情委が公表する内容等によって内容はアップデートする可能性がある点についてご留意ください。 プロンプト入力時における個人情報保護法論点フローチャート 生成AIにプロンプトを入力するにあたり、個人情報保護法(個情法)上問題となり得る点をフローチャートにしてみました。 白色の帰結は、個情法に抵触せずに利用できる可能性が高い場合です。他方でグレーの帰結は、個情法に抵触するか(目的外利用)、本人(プロンプトに含まれる個人情報の主体)からの同意取得が必要になるため、適法に利用するためには一定の困難が生じる可能性がある場合です。以下、①から順番に解説していきます。 ①入力するプロンプトは個人情報か 入力するプロンプトが個人情報にあたらなければ、原則として個情法の問題
マイクロソフトは、同社が提供する生成AIによるさまざまな支援機能を提供する「Copilot」製品群が、著作権侵害の心配なく使えると約束する「Copilot Copyright Commitment」を発表しました(英語、日本語) マイクロソフトは、生成AIがソースコードを生成してくれるGitHub Copilotや、プレゼン資料などを生成してくれる「Microsoft 365 Copilot」など、生成AIを活用した「Copilot」製品群を積極的に展開しています。 一方で、こうした生成的AIは既存のソースコード、画像、文書などを学習しているため、何らかの要因で既存のソースコードや画像、文書の複製に相当するものが生成され、それを知らずに利用した場合に利用者が著作権侵害により訴えられる可能性があるのではないか、と心配されています。 今回のマイクロソフトの発表した「Copilot Copyri
Explore all the Syntehsia features to easily produce your training, marketing and internal videos.
米Metaは8月24日(現地時間)、7月に発表したLLM(大規模言語モデル)の「Llama 2」上に構築したコーディングツール「Code Llama」をリリースしたと発表した。 Llama 2と同じコミュニティライセンスで、無料で研究および商用利用できる。 コーディング用生成AIモデルとしては、米Microsoft傘下のGitHubが6月にテクニカルプレビュー版を発表した「GitHub Copilot」がある。 Code Llamaは、プロンプトからコードを作成したり、特定の文字列を指定するとコードを完成させ、デバッグもできるとMetaは説明する。Python、C++、Java、PHP、Typescript (Javascript)、C#、Bashなどをサポートする。 パラメータ数が70億、130億、340億の3つのサイズでリリースする。各モデルは5000億トークンのコードとコード関連デー
Join our new short course, Finetuning Large Language Models! Learn from Sharon Zhou, Co-Founder and CEO of Lamini, and instructor for the GANs Specialization and How Diffusion Models Work. When you complete this course, you will be able to: Understand when to apply finetuning on LLMs Prepare your data for finetuning Train and evaluate an LLM on your data With finetuning, you’re able to take your o
本シリーズの執筆者 Google Cloud で生成 AI アプリケーションを作ろう! シリーズの記事は、Google Cloud Japan の下記の有志メンバーが共同で執筆しています。 執筆者 下田倫大(Norihiro Shimoda, Google Cloud AI/ML Practice Lead) 中井悦司(Etsuji Nakai, Google Cloud Solutions Architect) 木村拓仁(Takuto Kimura, Google Cloud Customer Engineer) RyuSA レビュアー 牧 允皓(Yoshihiro Maki, Google Cloud AI/ML Specialist) 鈴木かの子(Kanoko Suzuki, Google Cloud Associate Customer Engineer) 吉田望(Nozomu Y
1.メタ認知プロンプトとは?メタ認知プロンプトとは、以下の論文「メタ認知プロンプティングは大規模言語モデルの理解を向上させる」で提案された、人間の内省的推論プロセスに着想を得たプロンプトであり、標準的なプロンプトや思考連鎖(Chain of Thought)プロンプトなどの手法を常に凌駕する結果が得られたとのことです。 メタ認知とは、自分が認知していることを認知すること、つまり、自分が行っている行動や思考を客観的に把握し、制御することを指します。このメタ認知能力によって、冷静な判断を可能にしたり、問題解決能力を向上させたりすることができると言われています。 この論文では、メタ認知プロンプトについて、次のように説明しています。 メタ認知プロンプトは、人間のメタ認知能力の一部をまねたもので、以下の5つの段階から構成されています。 1.入力テキストを理解 2.予備的な判断を実施 3.この予備的な
Prompt Engineering Guide Prompt engineering is a relatively new discipline for developing and optimizing prompts to efficiently use language models (LMs) for a wide variety of applications and research topics. Prompt engineering skills help to better understand the capabilities and limitations of large language models (LLMs). Researchers use prompt engineering to improve the capacity of LLMs on a
組織向け Google Cloud Skills Boost は、700 以上の学習アクティビティにオンデマンドでアクセスできるトレーニング サービスです。データ、AI、インフラストラクチャ、セキュリティなどのトピックに関するコース、クエスト、ハンズオンラボに参加して、スキルバッジを獲得できます。 この度、Skills Boost で大人気の 生成 AI 関連のコースとハンズオンラボをいち早く日本語化しました。 生成 AI コース大規模言語モデルの基本から Google Cloud 上で 生成 AI ソリューションを作成・デプロイする方法まで、生成 AI 関連製品と技術について無償で学ぶことができます。 Introduction to Generative AI - 日本語版: この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについ
チャットGPTから期待する回答結果を引き出すには、質問となるプロンプトの内容や入力方法に工夫が必要です。この記事では、チャットGPTを開発しているOpenAIが推奨する質問のテクニックから、重要なものを「10選」としてまとめて紹介します。 OpenAIが推奨する質問方法を参考にしよう ChatGPTに質問したところ「期待していた回答ではない」と思ったことはありませんか?質問の仕方を変えることで、求めていた回答を得られやすくなります。 この記事では、ChatGPTの開発元であるOpenAIが推奨する質問方法「GPT best practice」(GPTベストプラクティス)に基づき、期待通りの回答を得るために重要な質問のテクニックを「10選」としてまとめて紹介します。 GPT best practices(英文) 1.明確な指示を含めて質問する 求めた回答の精度を高めるには、プロンプトに詳細情
このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 米Cornell Techに所属する研究者らが発表した論文「(Ab)using Images and Sounds for Indirect Instruction Injection in Multi-Modal LLMs」は、画像や音声に悪意あるプロンプトを含ませたプロンプト・インジェクション(生成AIに対しての攻撃)を提案した研究報告である。 ユーザーが知らずにその画像や音声を大規模言語モデル(LLM)のチャットbotAIに入力すると、画像や音声と無関係な偽の情報や、フィッシングサイトに誘導するテキスト回答を出力する。また、ギャル風に
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く