「こんなことまでしてくれるの!?~データエンジニアを助けてくれるFivetranとSnowflake~」で発表した登壇資料です。 https://dev.classmethod.jp/news/230119_fivetran-snowflake
「こんなことまでしてくれるの!?~データエンジニアを助けてくれるFivetranとSnowflake~」で発表した登壇資料です。 https://dev.classmethod.jp/news/230119_fivetran-snowflake
「LLM」の「LoRA」「RLHF」によるファインチューニング用のツールキットをまとめました。 1. PEFT「PEFT」は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。 現在サポートしている手法は、次の4つです。 ・LoRA ・Prefix Tuning ・P-Tuning ・Prompt Tuning ◎ LLaMA + LoRA 「Alpaca-LoRA」は、「LLaMA」に「LoRA」を適用して「Alpaca」の結果を再現するためのコードが含まれているリポジトリです。「finetune.py」がLoRAの参考になります。 ・tloen/alpaca-lora ◎ RedPajama-INCITE + LoRA 「INCITE-LoRA」は、「RedPajama-INCITE」に「LoRA」を適用する
Nreal Airというサングラス型のヘッドマウントディスプレイがある。 Nreal Air(エンリアルエアー)/ARグラス/スマートグラス/どこにでも持ち歩ける最大201インチ大画面/TUV認証取得(目に優しい)/ステレオサウンドのデュアルスピーカー/ノイズキャンセリングマイク/3DoF対応/EIS電子式アンチシェイク/専用アプリNebula対応/Type-C (DisplayPort Alt Mode)接続 Black フリー エンリアル(Nreal)Amazon 目の前に画面を表示させつつ、外も見れるようなもの(詳しくは公式を参考)。 これをカンファレンス参加に活用したお話。 カンファレンス参加時の問題 カンファレンスで発表を聞いてる際、メモを取ったりTwitter上の反応などをチェックするなどして視線が手元に落ちることが度々ある。 ただ視線を落としていると、スライドなどを見落したり
「Android」ユーザーは、良くも悪くも最先端のモバイル技術を享受できることが多い。改善された充電機能であれ新しいカメラ技術であれ、あるいは複数のBluetooth対応ヘッドフォンによる音声の共有であれ、新しい機能はAndroidで初めて目にするのが普通だ。現時点でその最たる例は折りたたみ式ディスプレイだろう。Googleは、魅力的な新しい選択肢に思える「Pixel Fold」について、通常よりもはるかに高い下取り価格を用意することで、好奇心旺盛な「iPhone」所有者を取り込みたいと考えている。 概して、Appleの製品は、同時期に発売された他社製品と比べて価値が下がりにくい傾向がある。それも当然で、iPhoneや「iPad」は、大半の製品よりも長期にわたってアップデートが受けられ、古臭くなりにくい。そのため、Appleのハードウェアの価格が、製品のライフサイクル中に大幅に下がることは
以前にも類似した話はあったそうだが、英科学技術関連誌のBBC Science Focus Magazineが、USBメモリにデータを保存すればするほど、USBメモリ本体の重量が軽くなるという話題を掲載し話題になってるようだ。USBメモリ内のフラッシュメモリには、データの「1」と「0」がトランジスタに保存される。トランジスタはフローティング・ゲートに給電すると「0」を、給電を解除すると「1」を設定する(BBC Science Focus Magazine、GIGAZINE)。 電子の質量は1つ当たり0.00000000000000000000000000091グラム。つまりほとんど0が設定されている空のUSBメモリは、1と0が入っている満タンのUSBメモリよりも重いのだそう。データを保存するとトランジスタに「1」が追加され、トランジスタから電子が解放されるため、解放された電子の分だけUSBメ
生成AI(人工知能)の世界では、米OpenAI(オープンAI)と米Microsoft(マイクロソフト)による連合と米Google(グーグル)が頂上決戦を繰り広げているが、続く3番手を挙げるとすれば米Meta(メタ)だろう。 米Amazon Web Services(アマゾン・ウェブ・サービス)やスタートアップなど、生成AIや大規模言語モデル(LLM)のサービスを提供する企業は他にも存在するのだが、生成AIやLLMの開発力ではメタが抜きん出ているためだ。 メタの技術力の高さを示す象徴が、同社が公開する生成AIやLLMのオープンソースだ。 メタが2023年2月に事前学習済みのLLMである「LLaMA(ラマ)」をオープンソースとして公開したことで、数多くの「ChatGPTクローン」が登場したことは、以前の本コラムでも紹介した通りだ。 その後もメタは強力な能力を備えた「すごいAI」を相次ぎオープン
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く