タグ

2023年8月29日のブックマーク (8件)

  • 「NAT」「NAT越え」「NATタイプ」ってなーに?

    「NAT(ナット)※1」はオンラインゲームを支える重要な技術のひとつです。 「NAT越え※2」に失敗するとマルチプレイができなくなりますし、「NATタイプ※3」の違いはマルチプレイのしやすさに影響します。 ところが、NAT は仕組みが難しく、初心者向けの記事も少ないため、イカスミカフェには NAT についての質問がよく寄せられます。 そこで今回は、Nintendo Switch(ニンテンドースイッチ)を例にして、世界一わかりやすく NAT を解説してみたいと思います。

    「NAT」「NAT越え」「NATタイプ」ってなーに?
  • 3秒の音声があれば本人そっくりの声で日本語・英語・中国語合成できる「VALL-E X」はやはり脅威。MSが非公開にした技術のOSS版を試して実感した(CloseBox) | テクノエッジ TechnoEdge

    わずか3秒の元音声から人そっくりな音声合成が可能な技術「VALL-E X」が誰でも使える形で公開されました。オープンソース版で、ローカルマシンからWebUIで利用できます。さっそくインストールして使ってみました。 以前、ディープラーニングベースの音声・歌声合成ソフトであるDiff-SVC、リアルタイム処理が可能なAIボイチェンRVCを紹介したとき、自分は記事タイトルに「驚異の」という形容詞を付けました。それでも学習には数十分の人による音声データが必要で、そこまでのデータを用意するのは容易ではありません。それに対してVALL-E Xでは元データが3秒あれば人に似た声を生成できるのです。

    3秒の音声があれば本人そっくりの声で日本語・英語・中国語合成できる「VALL-E X」はやはり脅威。MSが非公開にした技術のOSS版を試して実感した(CloseBox) | テクノエッジ TechnoEdge
  • Figma: コラボレーションインターフェースデザインツール

    リアルタイムで一緒に作業することで、新たなデザイン手法が生まれます。ワークフローを効率的に保つためには、あらゆるチームがプロセス全体を見渡せるツールが必要です。

    Figma: コラボレーションインターフェースデザインツール
  • イラストレーション・アイコン素材|デジタル庁

    素材集の活用で、行政手続きをもっとわかりやすく専門的でわかりにくい行政手続きの改善へマイナンバーに関連するデジタル手続は専門用語が多く、イラストレーションやアイコンなどを活用して、ひと目でわかりやすく伝える必要があります。しかし、これまでは政府として公式に配布する専用の素材がありませんでした。 そのため、地方自治体や民間サービスの方々が独自に作成する必要があり、表現が伝え手によってバラバラになる課題を抱えていました。 コストを抑えて、わかりやすい表現が可能にイラストレーションやアイコン素材の作成には、専門的な知識と多くの時間が必要です。視認性が高く保たれているか? 日に暮らす人、訪れる人が理解しやすい表現になっているか? など、さまざまな検討事項があります。どなたでもご利用できる素材を配布することで、別々の機関が同じものを制作したり、検討する時間を省くことができます。 また同時に、素材制

    イラストレーション・アイコン素材|デジタル庁
  • BBC特派員「日本の水産物が心配?世界のすべての水産物食べられない」

    が福島第1原発汚染水海洋放出を開始した24日、釜山市中区チャガルチ市場は閑散としていた。 ソン・ボングン記者 日の福島原子力発電所の汚染水(処理水)放流後、水産物忌避現象が韓国中国で広がっている。こうした中、英国のジャーナリストが「そんな懸念は話にならない」と一蹴した。 BBCのルパート・ウィングフィールド・ヘイズ記者は25日、「X(旧ツイッター)」で「もし、福島汚染水放出のために日の水産物をべることが心配なら、どこの水産物も全くべない方が良い」と指摘した。ルパート氏は2000年の北京特派員を皮切りにモスクワ・東京とフィリピン・北朝鮮・中東などでアジアのニュースを伝えてきた。現在は台湾で活動中だ。 そして、日福島第1原発と中国原発のトリチウム放出量を比較した資料を共有した。韓国中国、日を示す地図上に各国の原発のトリチウム放出量を表示した資料だ。 資料によると、2020年

    BBC特派員「日本の水産物が心配?世界のすべての水産物食べられない」
  • 225行のコードでGPTの仕組みを理解する

    概要 LLMに関心があり、ChatGPTやtransformerの仕組みを理解したいと思っていたところ、雰囲気を掴むのにこちらの動画がとても参考になりました。 動画の内容としては、以下のコーパスを学習して、直前の数文字から次の1文字(単語ではないことに注意)予測機を作成するというものです。 この動画で完成するコードは以下で、225行しかなくとても読みやすいです。 また短いですがtransformerのエッセンスが詰まっていて勉強になりそうです。 このコードを読み解くことでGPTやtransformerがどのように動いているのか、ざっくり理解してみようと思います。 ちなみに完成するとこんな感じの文字列が生成されます。ぱっと見文章っぽいですね。 first Scitizen: He's enough; but he cannot give his friends. MARCIUS: Do yo

    225行のコードでGPTの仕組みを理解する
  • Retrieval Augmented Generationを改良する2つの方法 | DevelopersIO

    はじめに 新規事業統括部の山です。 OpenAI APIをはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができません。そのため、例えば社内の文章ファイルに関する質問に回答するチャットボットを作成しようとしても、質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、 ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索する その文章をLLMへの入力(プロンプト)にプラスして渡す というフローにすることで、LLMが学習し

    Retrieval Augmented Generationを改良する2つの方法 | DevelopersIO
  • LLMのファインチューニング で 何ができて 何ができないのか|npaka

    LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ

    LLMのファインチューニング で 何ができて 何ができないのか|npaka