2022年11月の公開以来、世界中で爆発的に広がったChatGPT。従来型の大規模言語モデル「GPT」をチャット型にすることで、技術者のみならず一般人まで広く利用可能になった点がイノベーティブだ。しかし同時に、エンジニアには「ハルシネーション(AIが事実とは異なる情報を生成する現象)」のリスクを正しく認識し、適切に付き合っていくことが求められている。2024年2月に開催されたDevelopers Summit 2024において、株式会社NextInt代表の「ところてん」こと中山心太氏が、エンジニアの生成AIとの付き合いかた、生成AIによって変化したエンジニアの業務領域、求められるスキルについて解説した。 ChatGPTの有用性とハルシネーションのリスク OpenAI社によって開発されたChatGPTは、2022年11月に公開され、その高い技術性能によって世界中で爆発的に広がった。ChatG
Gemini Code Assist は 2024 年 7 月 8 日まで料金不要でお試しいただけます。ただし、請求先アカウントごとに 1 ユーザーに限ります。
Claude 3、気になりますよね 今まで触ったことないけど、興味を持った方へ、入門するところまでのご案内です。 とりあえずチャットがしたい claude.aiにアクセスして、アカウントを作成します。 メールアドレスを入力する方法と、Googleのアカウントと紐付ける方法があります。 私はGoogleアカウントとの紐づけを行いました。 ログインができたら、もう、チャットができます。ChatGPTのような感じです。 日本語も自然に回答してくれます。 左下にClaude 3 Sonnetとあります。これはClaude 3のモデルの名称で、SonnetはClaude 3のシリーズの中で真ん中のモデルです。 Haiku - ハイク Sonnet - ソネット Opus - オーパス 名前からモデルの特徴を想像してもらいました。概ね特徴を捉えているのではないでしょうか。 Claude 3の特徴として
「GPT-4超え」とうわさのAI「Claude 3」を試す 仕事は任せられる? 若手記者の所感(1/2 ページ) 3月4日(現地時間)にリリースされたチャットAI「Claude 3」がすごい。筆者も記事の執筆を任せられないか少し試しているが、使い方によっては「そこそこいけるな……少なくともGPT-4よりはイケる」と思う程度にはしっかりしている。 過去に記事でも伝えた通り、ITmedia NEWSではChatGPTを活用した記事の制作も行っている。筆者もたまにGPT-4の力を借りて記事を作っているが、ものすごく効率化につながるかと言われれば、正直そこまでではない。 10の労力が9とか8.5くらいにはなるし、それはそれですごく大事なのだが、劇的な省力化にはつながらない。さらにプロンプトを考える手間もある。その辺を加味してギリギリ黒字くらいだ。特にここ半年くらいは以前より微妙なアウトプットしか出
【fabric】複雑なタスクをAIが自動化、人間の能力を拡張するオープンソースAIを使ってみた 2024 2/15 WEELメディア事業部LLMライターのゆうやです。 fabricは、誰でも人生や仕事を向上させるために使用できる、オープンソースAIフレームワークです。 このフレームワークは様々なタスクをパターン分けしており、文章の要約や動画の抽出といったタスクを簡単に実行できるほか、それらのパターンを組み合わせて高度なタスクをこなすこともできます。 以下の動画は実際に動作している様子です。 引用元:https://github.com/danielmiessler/fabric?tab=readme-ov-file#fabric-is-an-open-source-framework-for-augmenting-humans-using-ai fabricのGithubのスター数は、4,
お知らせ 📢 本記事の内容は、下記のZenn本に統合されたため、恐れ入りますが、下記をご参照ください m(_ _)m 最後に 最後まで読んでくださり、ありがとうございました! この記事を通して、少しでもあなたの学びに役立てば幸いです! おまけ①:生成AIアカデミー より専門的な「生成AIエンジニア人材」を目指しませんか? そんな方々に向けて、「生成AIアカデミー(旧:生成AIエンジニア塾)」というプログラムを始めました🎉 最終的なゴールとして、『エンタープライズ向けの生成AIシステムを構築するためのスキルを習得し、大手案件で活躍できる人材』を目標とします。 また、一人一人にしっかりと向き合って、メンタリングをできるようにするため、現在メンバーの人数制限をしております。本気度やスキルレベルの高い人から、順番にご案内しております。 ▼ 登録はこちらから ▼ おまけ②:AI Newslett
Llama2をコーディング用にチューニングしたCode Llamaでてますね。 そして、対話モデルもあります。 けどどう使うかわからなかったのでいろいろ試したら、なんとなくわかったのでメモ。 モデルはHugging Faceにあるので、ふつうのTransformersモデルとして使えます。 で、指示文は[INST]~[/INST]で囲む、システムからの出力は<SYS>から</SYS>で囲まれるという感じぽい。 ので、プロンプトをこんな感じで作る。 prompt = f"""[INST]{prompt}[/INST] <SYS> コード全体はこうなります。 import torch from transformers import AutoModelForCausalLM, AutoTokenizer from colorama import Fore, Back, Style, init
「Google Colab」で「Llama.cpp + Vicuna-v1.5」を試したのでまとめました。 1. Vicuna-v1.5のGGMLモデル「Vicuna-v1.5」で提供されている「GGML」モデルは、次の4つです。 ・TheBloke/vicuna-7B-v1.5-GGML ・TheBloke/vicuna-7B-v1.5-16K-GGML ・TheBloke/vicuna-13B-v1.5-GGML ・TheBloke/vicuna-13B-v1.5-16K-GGML 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) モデルのダウンロード。 今回は、「vicuna-7b-v1.5.ggmlv3.q4_K_M.bin」を使います。 !wget https://huggingface.co/TheBloke/vicuna-7B-v1.5-GGML/r
前編のあらまし さくらインターネットの芦野です。 前編の記事では、さくらのクラウド高火力プランの概要や事例、それから大規模言語モデル(LLM)の概要や主な実装をご紹介しました。それに続く本記事では、さくらのクラウドでLLMを動かす方法の解説や、LLMを使って実装したチャットボットのデモなどをご紹介します。 さくらのクラウドで大規模言語モデルを動かすための手順 それでは、さくらのクラウドで大規模言語モデルを動かすための手順の説明に入っていきたいと思います。今回は先ほどもご紹介しました、サイバーエージェント社が公開しているOpenCALMを動かしてみます。OpenCALMは、私が知る限りでは数少ない日本語大規模言語モデルの一つで、公開されている中では唯一なのかなと思ってたりしております。Hugging Faceという、機械学習のモデルを公開・共有できるプラットフォームにて公開されております。
Step 1: Create an Amazon SageMaker Notebook Instance for the tutorial Custom IAM policies that allow Amazon SageMaker Studio or Amazon SageMaker Studio Classic to create Amazon SageMaker resources must also grant permissions to add tags to those resources. The permission to add tags to resources is required because Studio and Studio Classic automatically tag any resources they create. If an IAM po
この図はざっくりと3つの領域に分かれます。まず左下が従来のプログラミングの領域です。これは簡単に言うと「プログラムは間違ってはいけない定形な仕事を奪う」ということです。次にその上の士業が責任を取る領域です。これは「責任」を取る人がいないと成立しない仕事です。ミスが発生した際に罰則を与えるという形で、ミスの発生を防いでいます。最後に右側のホワイトカラーの仕事の領域です。ホワイトカラーの仕事は入出力が不定形であり、作業フローも非定型であったりします。そのため、多少のミスはあっても仕方ないという前提の上で仕事が行われています。 機械学習がビジネスに組み込まれるにつれ、ホワイトカラーの仕事領域はそれらによって少しずつ代替されつつあります。その図がこちらになります。 ホワイトカラーの担っていた領域は、表データの機械学習(重回帰や、Lasso回帰、SVM、RandomForest、LightGBMなど
生成AIのトップランナーといえば、米OpenAIが提供するGPT-4などを使ったChatGPTですが、その対抗馬として期待されているのが米Metaが提供する大規模言語モデル「Llama 2」です。 このLlama 2、GPT-3.5の3月1日時点のモデルに匹敵する性能を持っているというのがウリです。GPT-3.5といえば、無料版のChatGPTで使われているモデルです。それがオープンソースとして公開されたのですから、衝撃的です。 さらに、高性能なだけでなくモデルサイズが小さいことも特徴です。GPT-3のパラメータ数は1750億(175B)、GPT-3.5は未公開ではあるものの3550億(355B)と推定されています。一方で、Llama 2は、700億(70B)パラメータで、GPT-3.5並をうたっています。 パラメータが小さくなれば必要なGPUのメモリも小さくなります。GPT-3.5はデー
007巻き方小津安二郎小説小野繙山ゴハン山梨ソロキャンプアワード山田勇魚嶋浦顕嶺川奈まり子工芸作家市川海老蔵対策幌倉さと平塚年齢制限店舗庭ゴハン廃番弥富マハ彫刻家彫金小林圭輔対処法御徒町奇才紳士名鑑増税変え方多崎ろぜ大園恵実大場美奈大庭繭大手失われた青を求めて失敗女性向け寄木女流雀士女郎蜘蛛姉の結婚安い安さ実話怪談宮台真司家庭家族影響徹底坂上秋成星をみるひと故障教えて!「聖蘭(せいら)20歳」さん斜線堂有紀新作新幹線方山敏彦方法旅行旅行/レジャー映画改善時間暇つぶし書画書評書道家最新月曜日のたわわ有楽町有限会社ファクタスデザイン改正推してた人・推されてた人怖い話手巻きたばこ怪談怪談一服の集い恋は光成人成年年齢引き下げ成長戦野の一服手作り手塚大輔手巻きタバコ採用手書き地図手順投稿怪談投資持ち方持ち込み捨て方掃除掌編小説境貴雄地図木下優樹菜佐藤タイジ今日のほごにゃんこあふたぁ仕事に疲れた付け方
初めまして。機械学習エンジニアの島越@nt_4o54です。現在はMLチームで日々、バクラクシリーズで用いられているAI-OCR機能の改善や新規機能の開発などを行なっています。 7月はLayerXエンジニアブログを活発にしよう月間ということで、自分からは表題にもある通り、「Document AI」と呼ばれる技術についての紹介と、またLayerXにおいてどういう応用先があるのかというお話をさせていただこうと思います。 ※ 同名のDocument AIというGCPのサービスがありますが、今回は一般的なDocument AIの話になります。 Document AIとは Document AIに用いられる技術 Optical Character Recognition (OCR) Document Classification Layout Analysis Document Parsing Tab
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く