タグ

2023年6月4日のブックマーク (3件)

  • 最高の砂糖水ができた

    1971年東京生まれ。デイリーポータルZウェブマスター。主にインターネットと世田谷区で活動。 編著書は「死ぬかと思った」(アスペクト)など。イカの沖漬けが世界一うまいべものだと思ってる。(動画インタビュー) 前の記事:背面カメラで自撮りする装置、それは鏡 > 個人サイト webやぎの目 当初、砂糖水は評判が悪かったが、途中からポッカレモンを入れるようにしたらおいしいと好評だった。 「え、それだけで?」 砂糖水っていけちゃうんじゃない? まさに天啓を得た瞬間である。 そういえば、甘くておいしいと評判のパン屋は砂糖を入れているという噂もあった。 甘いからおいしい、21世紀でもそんな図式はまだまだ有効だったのだ。人間の習性は現代人も石器時代の人間も変わってないという。だから人間は甘さへの渇望から逃れられないのだ。 砂糖はそんな人間を惑わす常習性がありながら規制されてない。 おいおい、すごいチ

    最高の砂糖水ができた
    esuji5
    esuji5 2023/06/04
  • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

    GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

    GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
    esuji5
    esuji5 2023/06/04
  • マンガ翻訳クラウド「Mantra Engine」がLLMを統合した高精度な翻訳エンジンの提供開始

    マンガ翻訳クラウド「Mantra Engine」がLLMを統合した高精度な翻訳エンジンの提供開始ゲーム翻訳など他エンタメ領域にも展開へ Mantra株式会社(所在地:東京都港区、代表取締役:石渡 祥之佑、URL:https://mantra.co.jp/)は、マンガ翻訳に特化した法人向けクラウドサービス「Mantra Engine」に、大規模言語モデル(LLM)を統合した高精度な機械翻訳エンジンを実装し、ベータ版として提供を開始しました。誤訳を従来の10分の1に削減し、多言語対応や翻訳の一貫性を向上させています。今後Mantra EngineはLLMの活用を進め、インタラクティブなユーザーインタフェースを含む新しい翻訳ワークフローの構築や、ゲーム翻訳など他のエンターテインメント領域への展開を進めてまいります。 新エンジン提供の背景 〜誤訳は従来の1/10に。多言語対応や翻訳の一貫性を向上し

    マンガ翻訳クラウド「Mantra Engine」がLLMを統合した高精度な翻訳エンジンの提供開始
    esuji5
    esuji5 2023/06/04