デジタルの 恩恵を すべての人へ Bringing the Benefits of Digital to Everyone AboutLightblue Lightblueは東京大学発のAIスタートアップです。 最先端の技術力と実装力を活かして、画像解析・自然言語処理AIを軸にしたソリューションを開発、提供しています。 私たちLightblueはAI技術の活用範囲を広げ、社会にポジティブな変革をもたらすことを目指しています。 資料ダウンロードする
生成 AI の急速な発展により恩恵を受ける一方で「私が作らなくてもどうせ AI が作るし」「今私ががんばってもすぐに AI が越えてくるし」といった生成 AI ニヒリズムとでも言える空気が蔓延しているように思います。ここでいうニヒリズムとは「長い間信じてきた価値の喪失に起因する無気力状態」というくらいの意味です。私の知り合いの中にもこのような無気力状態を感じている人が何人もいました。新しい物事を作り出すことを生きがいとしている人にとっては、AI の発達はアイデンティティに関わる重大事項となってしまっています。 本稿では、研究者の仕事は生成 AI に取って代わられることはないこと、そして研究者としてのアイデンティティを守るにはどうすればよいかを論じます。ここでいう研究者というのは、本質的に新しいことを探求する人のことを指しており、自身の仕事に応じてクリエイターや起業家と読み換えてもらっても問
Model Summary The Phi-3-Mini-128K-Instruct is a 3.8 billion-parameter, lightweight, state-of-the-art open model trained using the Phi-3 datasets. This dataset includes both synthetic data and filtered publicly available website data, with an emphasis on high-quality and reasoning-dense properties. The model belongs to the Phi-3 family with the Mini version in two variants 4K and 128K which is the
META LLAMA 3 COMMUNITY LICENSE AGREEMENT\nMeta Llama 3 Version Release Date: April 18, 2024 \"Agreement\" means the terms and conditions for use, reproduction, distribution and modification of the Llama Materials set forth herein. \"Documentation\" means the specifications, manuals and documentation accompanying Meta Llama 3 distributed by Meta at https://llama.meta.com/get-started/. \"Licensee\"
近年の AI の進歩により、論文の読み方も大きく変化を遂げました。AI を活用することで以前と比べてはるかに簡単かつ早く論文が読めるようになりました。 以前私の個人ブログにて、論文の読み方やまとめ方を紹介しました。その時には要約ツールは用いていませんでしたが、最近はすっかり要約ツールを多用するようになりました。 本稿では、最新の AI を使った論文の読み方を丁寧に紹介します。 基本的な流れ 本稿でおすすめするのは ChatGPT か Claude で要約を生成して論文の概要をつかみ、Readable で精読するという方法です。ChatGPT や Claude では単に全体の要約を生成するだけでなく、肝となる箇所を特定したり理解するためにも用います。具体的な手順については後の項で解説します。 私が特定のテーマについて調査を行う場合には、テーマに関係する論文を被引用数の多いものを中心に 10
ページやブログでのコラボレーション方法、アクティビティの通知を受け取る方法、およびコンテンツの状況を確認するために分析情報を表示する方法をご確認ください。
As we grow our operations internationally, we’re expanding into Asia with a new office in Tokyo, Japan. We are committed to collaborating with the Japanese government, local businesses, and research institutions to develop safe AI tools that serve Japan’s unique needs and to unlock new opportunities. We chose Tokyo as our first Asian office for its global leadership in technology, culture of servi
2024/04/09 続編書きました。 LangChainを使って色々LLMアプリを作って遊んでいます。 体感速度が遅いけど、どこが遅いかわからない サンプルソースをコピペして作ったので、実は中身のことをわかってない 入力と出力だけじゃなくて、中間の状態も知りたい みたいなことってありませんか?そんなときに使えるツールを見つけましたのでご紹介します。 Langfuseとは LangfuseはLLMエンジニアリングプラットフォームです。LLMアプリからメトリクスやトレースを取得し可視化できます。また、評価、プロンプトの管理、データセットの作成なども行えます OSS開発が進められており、開発の主導はFinto Technologies GmbHというドイツの企業のようです。 公式サイト 主要機能(公式サイトより) LangSmithと類似したツールですが、OSSなのでセルフホストできる点がポイ
傍観者ではなく、挑戦者へ 私たちは単なる技術の利用者や情報の受け手として存在するのではありません。時代と共に、新しい技術や知識、方法を取り入れ、挑戦し続けることで、真のイノベーションを追求しています。また、私たちのサービスは、単に便利なツールとしての役割だけではなく、新しい価値や可能性を創出するための手段として、お客様と共に進化していきます。 伝統的な価値を守りながら、 未来への新しい可能性を模索 私たちは、日本語に特化した大規模言語モデルの研究開発に力を入れています。私たちのモデルは、日本の文化や価値観を真に反映し、日本独自のニーズに合わせたサービスを提供することを目指しています。そして、私たちが大切にしているのは、データの安全性。日本語に特化した大規模言語モデルに関するデータは国内のデータセンターで厳格に管理され、高い安全性を持つ環境での開発・学習を実施しています。私たちの技術とサービ
AI has become an integral part of my workflow these days, and with the assistance of GitHub Copilot, I move a lot faster when I’m building a project. Having used AI tools to increase my productivity over the past year, I’ve realized that similar to learning how to use a new framework or library, we can enhance our efficiency with AI tools by learning how to best use them. In this blog post, I’ll s
GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど 記事の中で、プログラマが意図したコードを高い精度で生成AIに生成させるためのテクニックがいくつも紹介されています。これらのテクニックはCopilotに限らず、生成AIを用いてコードを生成させる際の参考になると思われます。 この記事では、紹介されているテクニックのポイントをまとめてみました。 GitHub Copilotでよりよいコードを生成するためのポイント 生成AI活用の基本として説明されたのは、大規模言語モデルを用いた生成AIでは、コンテキスト(文脈)に基づいて予測を行うように設計されているため、生成AIに対する入力やプロンプトがコンテキストに富んでいるほど良い出力が得られる、という原則です。 それゆえ、GitHub CopilotおよびGitHub Copi
Microsoft Copilotをローカルで動作させるには最低40 TOPsが必要に。Intel幹部が口を滑らす Microsoftでは2024年はWindows 11に追加されたCopilotの機能を向上させるほか、現状はすべてクラウドで処理しているものをローカルで動作させるようにすると言われています。ただ、このローカルでの動作にはAI処理を担う高性能なNeural Processing Unitが必要で、最低40~45 TOPs必要と言われていました。 そんなCopilotですが、Intelが台北で開催しているAIサミットにてIntel幹部がCopilotのローカル動作に必要なNPUの性能についてうっかり口を滑らせてしまったようです。 Intelが開催したAIサミットでは主にMeteor Lakeから搭載されているNPUの性能の重要性や今後の動向などが紹介されているのですが、このサミ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く