並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 94件

新着順 人気順

Loraの検索結果1 - 40 件 / 94件

Loraに関するエントリは94件あります。 AI人工知能機械学習 などが関連タグです。 人気エントリには 『【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】』などがあります。
  • 【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】

    気になったゲームの攻略情報、PCの豆知識、様々なガシェットのレビューなどを紹介してます!その他にも管理人の趣味をいろいろと書き綴っています。

      【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】
    • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第一回:実在モデルで学習・LoRAでキャッチライト付加 (西川和久) | テクノエッジ TechnoEdge

      百聞は一見に如かず。これってAI生成グラビア?AI画像生成に興味を持ったのは去年の年末頃だろうか。Twitterを眺めていると「どうやって撮った(作った)んだ?」と言う画像がたまに載っていたので調べると、Stable Diffusion Web UI (AUTOMATIC1111版)だった。 元々グラビアを撮っていたこともあり、あまり撮らなくなってもグラビア好きなのには違いなく、試したくなったのは言うまでもない。 AI生成画像は大きく分けて2種類あり、一つはイラスト系、もう一つはリアル系。筆者が興味を持ったのは後者。どこまで実写に迫れるのかがその興味の対象だ。百聞は一見に如かず。扉の写真はAI生成画像。現時点でこの程度の写りは容易にこなす。 とは言え、実際の撮影もそうなのだが、グラビア写真は数百枚撮ってカメラマンがある程度セレクトし納品したものが、納品先で更に絞られ、出版社などで更に絞り込

        生成AIグラビアをグラビアカメラマンが作るとどうなる?第一回:実在モデルで学習・LoRAでキャッチライト付加 (西川和久) | テクノエッジ TechnoEdge
      • AIで特定キャラを描く(DreamBoothで追加学習)|lisa

        概要DreamBoothとは追加学習することで、AI(StableDiffusion)で特定のキャラや物を描くためのモデル(データ)作るツールです。 例えば、ドラゴンクエスト10オンラインというゲームのアンルシアというキャラがいます。 ドラゴンクエスト10のアンルシア 公式サイトより引用 https://hiroba.dqx.jp/sc/election/queen2021/vote/confirm/1/nologinこのキャラの画像を18枚ほどAIに読み込ませ、追加学習し、AIに描かせた絵が以下の絵になります。 これ見ると、単なる髪型や顔が似ているレベルではなく、服の模様レベルまで再現できている事がわかります。 今までStableDiffusionの欠点として、同じキャラを安定して描くのが苦手というのがありましたが、DreamBoothを使うことで克服することが出来ます。 これにより、A

          AIで特定キャラを描く(DreamBoothで追加学習)|lisa
        • 漫画未経験のエンジニアが今のAIで漫画制作にトライしてみた記録2023年夏時点版|安野貴博

          画像生成AIの躍進が目覚ましい。エンジニア兼SF作家の筆者としては、AIが絵を描けるようになるのなら、絵が描けない自分でも漫画制作ができるようになるのではという期待があった。実際に2022年の末頃にはstable diffusionを使った漫画制作UIのプロトタイプを作ってみたこともある。 Google ColabでAI漫画制作用のUIを試作してみた。コマごとにプロンプトが割り当ててあって、AIが裏でたくさん選択肢を作りまくってくれる。人間が大量の絵からベストなものを選んだり、構図やセリフの調整に集中できるようなワークフローがいいのではないかという仮説 #stablediffusion pic.twitter.com/zI64zm3cNI — 安野貴博 (@takahiroanno) November 10, 2022 それから半年以上の月日が経ち、世の中でもMulti ControlNe

            漫画未経験のエンジニアが今のAIで漫画制作にトライしてみた記録2023年夏時点版|安野貴博
          • ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ

            2022年11月にChatGPTが公開され、たった1週間で100万ユーザーを超えたのをきっかけに、GoogleのBardやMicrosoftのBing AI Chatなど、大規模言語モデルを利用したチャットAIが続々とリリースされています。チャットAIを研究しているセバスティアン・ラシュカさんが、チャットAIが実用化されるまでの研究の軌跡を重要な論文24個に絞って要約しています。 Understanding Large Language Models - by Sebastian Raschka https://magazine.sebastianraschka.com/p/understanding-large-language-models ◆目次 ・主要なアーキテクチャとタスク ・スケーリングと効率性の向上 ・言語モデルを意図した方向へ誘導する ・人間のフィードバックによる強化学習(

              ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ
            • 最低1枚の元写真があれば、高品質本人画像をすぐに生成できる「PhotoMaker」を試したらお手軽すぎた(CloseBox) | テクノエッジ TechnoEdge

              人気連載『生成AIウィークリー』で取り上げている注目論文を見ると、そこに中国IT企業の名前が頻繁に登場します。 EC大手のアリババ(Alibaba)、ゲーム大手のテンセント(Tencent)、TikTokの運営元であるBytedanceなどが常に顔を出しており、画像・音声・アニメーションと、生成AIのあらゆる分野で中国に勢いがあることがわかります。 そんな中、テンセントがなかなか衝撃的な技術を発表しました。「PhotoMaker」という画像生成AIです。これでなければできない、というものではないのですが、「ファインチューニングの事前作成不要」「元画像が少なくても良い」のに、人物のアイデンティティを維持した画像を生成できるというメリットがあります。 これまでは既存の画像AIモデルに多数の写真を読み込ませて本人性を学習させたものから新たなAIモデルやその簡易版であるLoRAモデルを作ってきまし

                最低1枚の元写真があれば、高品質本人画像をすぐに生成できる「PhotoMaker」を試したらお手軽すぎた(CloseBox) | テクノエッジ TechnoEdge
              • LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】

                を一通りご紹介するという内容になっています。 Stable Diffusion系のモデルを使って画像を生成していると、 特定のキャラクターのイラストを出したい あるアニメの絵柄を再現したい といった欲求が出てくることがあります。ただ画像生成AIはそのままだと「特定の絵柄・キャラクターを決め打ちで出す」のは非常に難しいですし、それを解決する手法もありましたが高性能なPCが必要で時間もかかる…という問題がありました。 しかしそのような問題を解決する「LoRA」という手法が知られて、今ではかなりポピュラーなやり方になっています。ここではこのLoRAについて

                  LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】
                • 画像生成AIで簡単にニセモノが作れるようになった結果作者が二次創作禁止を発表せざるを得ない事態に

                  樋口紀信@疫神のカルテ全3巻 @susujinkou 《読者の皆様へ》【二次創作禁止のお知らせ】 LoRAの話題から離れている間は全く平気なのですが、この話題になるとかなり辛いです。 申し訳ありませんが、『樋口紀信LoRA』を使われる可能性から、ファンアートを含めた自著の二次創作を一切禁止します。(続) 樋口紀信@疫神のカルテ全3巻 @susujinkou あのLoRAで自著のキャラを描かれるのも、その他の画像生成AIで二次創作されるのも、それらと手描きの区別をつけなければならないのも、今は無理です。 耐性が付き次第、また解禁します…!! ホントすみません!! リンク となりのヤングジャンプ [第1話] 疫神のカルテ - 樋口紀信 | となりのヤングジャンプ 「疫神症候群」それは超常能力を発現し、やがて死に至る病。 発症原因は一切不明。対症療法以外の治療法は無し。ある日突然、家族が、友人が

                    画像生成AIで簡単にニセモノが作れるようになった結果作者が二次創作禁止を発表せざるを得ない事態に
                  • 実録:AIで描く漫画の実際 ~AIで今風の手描きっぽい漫画を作ってみる (1/6)

                    こんにちは、漫画界の生き恥こと野火城と申します。 「画像AI使ってみた/AI漫画実験企画」第2回です! ■第1回はこちら 実録:AIで描く漫画の実際 ~体験して見えた、その実力と課題!! その成り立ちから様々な議論を呼んでいる画像生成AIですが、少なくとも2024年3月現在日本の法律では使用が許可されており、存在を完全に無視する事はできません。かといって全てを肯定して受け入れるのも難しい。 だからこそ、必要以上に恐れず、実際にどのような事が出来るのか、具体的に検証する――それが画像AIとの誠実な向き合い方なのではないでしょうか。 「画像AIの技術がすごいという賞賛記事はよく見るが、それは本当に創作活動で実戦的に使えるものなのか? 『AIに仕事を奪われる』と『今のAIは実戦では使い物にならない』という真逆の意見を多数見るが、この二つは両立しないのでは? 実際はどっちなんだ?」「画像AIを試し

                      実録:AIで描く漫画の実際 ~AIで今風の手描きっぽい漫画を作ってみる (1/6)
                    • (追記あり)日本の絵師界隈が、反AI因習村と化した理由についての一考察

                      10/22追記深夜のダラダラした文章に、思った以上の反響があり、恐縮です。キャンセルカルチャー運動に辟易していましたので、考察と言いつつ、n=1の、偏見まみれのくさすような内容になっており、申し訳ございません。 コメントを通して、西洋史観や海外勢の動きなど己の勉強不足を感じ、大変参考になりました。ほか、新たに以下の視点を得ました。 絵師界隈にもプレイヤーはきちんと多数存在していて、それはいわゆる多くの「二次創作をメインに活動する者」なのではないか?にもかかわらず、「二次創作をメインに活動する者」は、自身を「プレイヤー」ではなく「クリエイター」だと勘違いしているから、絵師界隈の創作の循環は停滞し、変なことになってしまっているのでは?(現行法上合法とされている無断学習(?)をダメとし、無断の二次創作をヨシとする矛盾性など) ■ 声優はどうなの? について彼らの職業は、対脚本家と演者という関係か

                        (追記あり)日本の絵師界隈が、反AI因習村と化した理由についての一考察
                      • 個室トイレでサボっている社員をIoTで検知「トイレットマスター」

                        センスウェイは、トイレにまつわるさまざまな課題をIoTによって解決する法人向けサービス「ToiletMaster」(トイレットマスター)の提供を開始した。 オフィス内のトイレ利用状況をIoTデバイスで管理可能にするユニークなサービス。個室トイレのドアに開閉センサーを取り付けることで、空き室状況の表示や長時間の利用検知、集計データによる分析にも対応した。検知センサーに低消費電力のLoRaWAN対応センサーを採用したことで、電気配線工事を行うことなく容易に設置できるのが特徴。

                          個室トイレでサボっている社員をIoTで検知「トイレットマスター」
                        • 【西川和久の不定期コラム】 Stable Diffusion高速化の決定版登場!?品質落とさず制限もほぼなしで2~3倍速に

                            【西川和久の不定期コラム】 Stable Diffusion高速化の決定版登場!?品質落とさず制限もほぼなしで2~3倍速に
                          • [PDF]AIと著作権に関するチェックリスト&ガイダンス

                            • 日本語Alpacaデータを用いてJapanese-Alpaca-LoRAを作ったので公開します【期間限定デモページあり】|kun1emon

                              ⚠️注意今回公開するのはLoRAを用いて作成したLLaMAの日本語化Adapterでありモデル自体ではありません。 LoRAをマージするベースのLLaMAは商用不可であり、今回公開するAdapterで日本語化したモデルも商用利用はできません。 OpneAIの利用規約で、OpenAIサービス、ChatGPTの出力結果を競合モデル開発用途に利用することはできません コンテンツ生成者はできません。 詳細は記事後半で述べていますが利用規約が適用されるのはコンテンツ生成者までです。 概要2022年の11月末にOpenAIからChatGPTが発表されてから、それに追随するようにGoogleからBard、MetaからLLaMAなど大規模言語モデル(LLM)が発表されました。さらにLLaMA 7Bを「text-davinci-003」を用いて「Self-Instruct」で作成された52Kのデータセット(

                                日本語Alpacaデータを用いてJapanese-Alpaca-LoRAを作ったので公開します【期間限定デモページあり】|kun1emon
                              • Stable Diffusion から特定の概念を忘れさせる学習を行ってみる

                                TL;DR ESD の手法で LoRA を学習してみたらそれっぽい感じのことができたよ VRAM 8GB で余裕で学習できるようになったよ (元は20GB要求) LoRA として保存できるようになったので重みの取り回しが良くなったよ マイナス適用によって、概念を削除するだけでなく強調することもできたよ 一度でも画像生成 AI に触ったことがあると、より楽しんで読めると思います。 論文とかどうでもいいから学習方法知りたい! という方は 実際に学習してみる へどうぞ! 今回作成したもの コード: モデルなど: 前提 Stable Diffusion とは、Stability AI らが公開したオープンソースの画像生成 AI であり、テキストによる指示で様々な画像を生成することができる。 本来の Stable Diffusion は、実写画像や海外風のイラストを出力することが得意だが、アジア系の

                                  Stable Diffusion から特定の概念を忘れさせる学習を行ってみる
                                • [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models

                                  パラメータを固定した事前学習済みモデルに対して、ごく少数のパラメータからなる低ランク行列を導入・学習することで、モデル全体のfine-tuningと同等の性能を発揮できる手法であるLoRAと、その論文について解説した資料です。 深層学習を用いた自然言語処理の歴史的な変遷と周辺技術から、LoRAが必要と…

                                    [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models
                                  • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

                                    GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

                                      GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
                                    • Civitai: The Home of Open-Source Generative AI

                                      All sorts of cool pictures created by our community, from simple shapes to detailed landscapes or human faces. A virtual canvas where you can unleash your creativity or get inspired. All sorts of cool pictures created by our community, from simple shapes to detailed landscapes or human faces. A virtual canvas where you can unleash your creativity or get inspired.

                                      • あなたの性癖の為のLoraリンク集|にきもなか

                                        Civitaiに投稿されているLoraのリンク集です。 アニメ系の衣装やシチュエーションのLoraを中心にまとめてます。 注意事項 雑多まとめなので、効果的なモデルがバラバラな可能性があります キャラクター系Lora、リアル系Lora、画風系Loraは含みません(リアル系は2D絵の報告があれば載せます) LyCORIS(LoCon/LoHa)である可能性があります R-18が多いです 全てのLoraで動作確認をしたわけではありません ※Loraの説明【トリガーワード】【Loraの推奨ウェイト(あれば)】 というフォーマットで記載します。 (トリガ

                                          あなたの性癖の為のLoraリンク集|にきもなか
                                        • 今年はLoRa元年?日本対応の格安モジュールE220-900T22S(JP)で遊んでみた - あっきぃ日誌

                                          昨年末に、スイッチサイエンスで1つ1,980円のLoRaモジュール「E220-900T22S(JP)」が発売されました。 LoRa通信モジュール(E220-900T22S)用評価ボードwww.switch-science.com とりあえずモジュール2つとアンテナ2つ(と送料)をポチって、5,390円でした。 これまで日本でLoRaを遊ぼうとすると、どうあがいても1万円コースみたいなところがあったと思うのですが、ようやく買って遊んでみてもいいかなと思える価格帯になってきましたね。それでもまあ、アリエクを見ると日本では当然使えないながらも600円そこらで転がってるので、こう、格差じみたものを感じます。というか、アリエクにE220-900T22SのJPじゃないやつがありますね。 ja.aliexpress.com さておき、E220-900T22S(JP)はCLEALINK社がE220-900

                                            今年はLoRa元年?日本対応の格安モジュールE220-900T22S(JP)で遊んでみた - あっきぃ日誌
                                          • CyberAgent社の日本語LLM OpenCALMの対話モデル用途のfinetune検証 - ACES エンジニアブログ

                                            こんにちは、ACESでアルゴリズムエンジニアとして働いている檜口です。最近はChatGPTを始めとする言語モデルの研究開発やプロダクト改善に取り組んでいます。 昨年末のChatGPTのリリース以降、大規模言語モデル(large language model, LLM)の社会実装が急速に進んできています。弊社でも商談解析AIツールACES MeetにLLMを組み込むなど、LLMの活用を広げています。こちらに関してはLLMを活用したAIまとめ機能リリースの裏側について過去記事を書いてありますのでご興味ある方はぜひご覧ください。 tech.acesinc.co.jp LLMはOpenAIのChatGPTが最も有名ですが、最近はオープンソースでモデルを開発する流れも活発になっています。特に、英語で学習したオープンソースモデルはMeta社のリリースしたLlamaを始めとして非常に強力なものがリリース

                                              CyberAgent社の日本語LLM OpenCALMの対話モデル用途のfinetune検証 - ACES エンジニアブログ
                                            • 「AIと著作権に関する考え方」を文化庁が公表―懸念解消を求める声に応え | Game*Spark - 国内・海外ゲーム情報サイト

                                              文化庁は2024年4月18日、文化審議会著作権分科会法制度小委員会が3月15日付けで取りまとめた、「AIと著作権に関する考え方について」(以下、「考え方」)の概要を公表しています。 2017年に早稲田大学法学部教授の上野達弘氏は「日本は機械学習パラダイスだ」と提言し、実際のところ近年の急速な生成AIの発展・普及にAIと著作権の関係を直接的に取り扱った判例や裁判例がいまだ乏しい状態です。「考え方」は、懸念解消を求める声に応えるべく“現行の著作権法がAIとの関係でどのように適用されるか”有識者からなる審議会で検討した内容をまとめたものとなっています。 「考え方」概要ではAIと著作権についての基本的な考え方を

                                                「AIと著作権に関する考え方」を文化庁が公表―懸念解消を求める声に応え | Game*Spark - 国内・海外ゲーム情報サイト
                                              • 【イラストAI】タッチ、絵柄、キャラを学習出来るLoRAや、画像の一部分をControlNetで修正する方法

                                                まっくす @minux302 入力画像を変換するタスクを Diffusion モデルで解く ControlNet についての解説記事を書きました。画像のような線画 -> 着彩のタスク等を解くことができます。 新時代の pix2pix? ControlNet 解説|まっくす zenn.dev/minux302/artic… #zenn pic.twitter.com/wNJhH4poyJ 2023-02-11 16:49:10

                                                  【イラストAI】タッチ、絵柄、キャラを学習出来るLoRAや、画像の一部分をControlNetで修正する方法
                                                • エンジニアが生成AIでガチ漫画を描いてみた話。|まるひ@AI漫画

                                                  結論まず結論から申し上げると、生成AIでのマンガ制作はめちゃくちゃ楽しかったです。そして、生成AI×漫画に非常に可能性を感じました。 生成AIがスキルや脳内イメージを超えたアウトプットを出すためか、作り手でありながら、読み手の感動も味わえるところが制作体験を底上げしていました。 生成AIでの漫画制作の強みは3つ。制作時間の半減と高品質な作画、それと作風が人に依存しない点です。3つ目の属人性がない強みは今まで不可能なレベルでのタスクの細分化と人海戦術を可能にするので非常に画期的だと考えています。 制作した漫画 全編生成AI作画のカラー漫画完成しました!! 死んだ人がアップロードされる天国クラウドサービスで、人生を取り戻そうと奮闘する少年少女の甘酸っぱい物語です。 (1/5)#漫画が読めるハッシュタグ pic.twitter.com/jnBqspwccQ — 比留間 大地 Daichi Hir

                                                    エンジニアが生成AIでガチ漫画を描いてみた話。|まるひ@AI漫画
                                                  • (PDF)文化審議会 著作権分科会 法制度小委員会「AIと著作権に関する考え方について」|文化庁著作権課

                                                    • LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ |npaka

                                                      「LLM」の「LoRA」「RLHF」によるファインチューニング用のツールキットをまとめました。 1. PEFT「PEFT」は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。 現在サポートしている手法は、次の4つです。 ・LoRA ・Prefix Tuning ・P-Tuning ・Prompt Tuning ◎ LLaMA + LoRA 「Alpaca-LoRA」は、「LLaMA」に「LoRA」を適用して「Alpaca」の結果を再現するためのコードが含まれているリポジトリです。「finetune.py」がLoRAの参考になります。 ・tloen/alpaca-lora ◎ RedPajama-INCITE + LoRA 「INCITE-LoRA」は、「RedPajama-INCITE」に「LoRA」を適用する

                                                        LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ |npaka
                                                      • やはりAIを知らなすぎることと、自分の著作物への権利意識が間違っているのだと思う

                                                        なぜ人は生成AIに学習されることに嫌悪感を抱くのか言語化してみる|リツ こちらを読んで書いてます 何が嫌なのかを再確認自分の個性・アイデンティティ、しかも自分ですら気がついてない無意識でやっていることまでもが、いつの間にか知らないうちに誰かに使用される。そのことに人間は恐怖する。この恐怖を勝手に「無意識の複製」とでも呼んでおこう。 よく、生成AIと写真・活版印刷は同じであると言っている人がいるが、写真や活版印刷はそっくりそのまま複製するものである。しかし、生成AIはそのままの複製ではない。無意識までもを複製する。 この文章とクローンの話をしていることから察するに 自分と同様の成果物を無限に生成されるのは恐怖だと言いたいのだと思う つまりは 自分が代替えされてしまうことへの恐怖かな 人間とAIの違い具体的な違いの説明はこの文章だと思う 自然人の学習は、完成品から原作者について様々な考察をしな

                                                          やはりAIを知らなすぎることと、自分の著作物への権利意識が間違っているのだと思う
                                                        • kohya版LoRA初心者教本 服を着せ替えできる高性能キャラLoRAをつくろう!|かたらぎ

                                                          AI(Stable Diffusion WebUI)で画像生成をしていると意外と言うことを聞いてくれないということがよくありますよね。例えばキャラクターの髪や目や服の色がまちまちだったり、そもそもうまく出せなかったり……そんな悩みを解消するのが今日ご紹介するLoRAというわけです。 そもそもLoRAって何? 簡単に言えば素材となる画像を20~30枚程度用意し、AIに特徴を覚えさせることで人物や、背景、絵柄などを簡単に変更できるファイルのことです。  Hugging Faceやcivitaiなどには多くのLoRAが公開されています。にきもなか先生がまとめてくださっているので、どんなものがあるのか気になる方はこちらをご覧ください。 Civitaiに公開されているLoraの昨日公開分までをまとめました。 AI制作の一助になれば幸いです。 多分600個くらいあります あなたの性癖の為のLoraリン

                                                            kohya版LoRA初心者教本 服を着せ替えできる高性能キャラLoRAをつくろう!|かたらぎ
                                                          • Stable DiffusionのLoRAのつくりかた|RedRayz

                                                            はじめにこの記事は、初めてStable DiffusionのLoRAを作成する方に向けた解説です。わかりづらかったらすみません。 この解説ではSDXLベースのAnimagine-XL-3.1で二次元イラストのキャラクターのLoRAを作成します。 注意すでにWebUIの環境構築と生成ができていて生成に慣れている前提のガイドとなります。 Windows向けのガイドです。 また、NVIDIAのGeForce RTXグラフィックボード(VRAM 8GB以上)が搭載された高性能なパソコンが必要です。 そもそもLoRAってなんぞや?Low-Rank Adaptationが正式名称です。 難しくいうと、ウェイトとデータセットの差分を出力するものです。低ランクの行列に分解してからファインチューンすることで少ないメモリで学習できるようにしたものです。 簡単に言えば、LoRAはキャラ、衣装、シチュエーションや

                                                              Stable DiffusionのLoRAのつくりかた|RedRayz
                                                            • 生成AIを特定の絵柄に特化させる「LoRA」 著作権の考え方は? 弁護士が解説

                                                              3月中旬ごろ、生成AI技術の一つ「LoRA」とイラストレーターの立場を巡り、SNS上で議論が巻き起こった。ある漫画家がX上で「自分の絵柄を模倣したAIモデル(LoRA)が作られて、嫌がらせを受けている」と投稿。これを受け、自身の作品のファンアートを含めた二次創作を禁止すると宣言し、話題になった。 LoRAとは、AIモデルに数枚の画像を追加的に学習させることで画像を特定の絵柄に寄せる技術。AIモデルを配布できるあるWebサイトでは、被害を訴えた漫画家の名を冠したLoRAモデルが配布されている。その説明文には「学習に使用した画像は全て自作したものであり、イラストレーター本人の著作物は一切使用していません。このモデルはどういう使い方をしてもらっても構いません」と記載が見られる。 LoRAの技術を巡っては、イラストレーターなどのクリエイターからその是非を問う声がネット上で数多く上がっている。また、

                                                                生成AIを特定の絵柄に特化させる「LoRA」 著作権の考え方は? 弁護士が解説
                                                              • これぞ革命!?ゼロから大規模言語モデルを学習できるReLORA登場(7/18追記あり)|shi3z

                                                                導入 本当に革命的な技術なのか? 「君たちはどう生きるか」で驚いている間にすごい論文が世界の話題を掻っ攫っていた。 その名も「ReLORA」簡単に言えば、「事前学習にLoRAを使う」というものである。 これは本当に革命的な発見かもしれないので、僕の仮説も含めて丁寧に説明する。 まず、大前提として、「LoRA」という技術について LoRAは、「Low Rank Adaptation(日本語で言うとすれば低階適応)」という技術で、これまでは主にファインチューニングに使われてきた。 ファインチューニングとは、あらかじめ学習されたニューラルネットワークに対して追加で学習させ、概念を強調させたり新しく覚えさせたりする。 たとえば、僕の顔でStableDiffusionをファインチューニングすれば、僕みたいな顔の絵がどんどん出てくる。 言語モデルにおけるLoRAも同様で、新しい概念や「こういうやりとり

                                                                  これぞ革命!?ゼロから大規模言語モデルを学習できるReLORA登場(7/18追記あり)|shi3z
                                                                • 最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk

                                                                  今回は、最新の Google Gemma モデルを Apple Silicon に最適化されたライブラリ MLX を使ってローカルで実行したり、ファインチューニングしてみましたのでその手順を紹介します。 MLX 関連の情報はドキュメンテーションが分かりづらいものも多かったので色々試した経緯も共有しながら少しでも何かの参考になれば幸いです。 実際に使った Jupyter Notebook を Gist にアップロードしていますので、そちらも参考にしてください。 →Google Gemma モデルを MLX を使ってローカルでファインチューニング 事前準備必要なライブラリをインストールします。 また Apple Silicon 搭載の Mac が必要です。今回は M3 Max 128GB 搭載の MacBook Pro で実行しました。 !pip install -U mlx mlx_lm t

                                                                    最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk
                                                                  • Pocket Popcorn Computer

                                                                    Pocket P.C. is your hacker terminal on-the-go. It is a handheld Linux device with a high-definition 1080p display and large battery life.

                                                                      Pocket Popcorn Computer
                                                                    • イラストに精緻なディテールを追加できる「flat LoRA」の紹介【Stable Diffusion】

                                                                      をしていきます。 先日某所で情報をチェックしていたところ、LoRAモデルの画期的な活用方法を考案した方が登場して大変話題になっていました。なぜそんなに話題になったのかというと、その方が作成したLoRAモデルをうまく使えばイラストに圧倒的なディテールを追加できるからです。 ここではそのLoRAモデルである「flat LoRA」の概要や使い方をご紹介しますね。

                                                                        イラストに精緻なディテールを追加できる「flat LoRA」の紹介【Stable Diffusion】
                                                                      • LLMを効率的に再学習する手法(PEFT)を解説 - Platinum Data Blog by BrainPad

                                                                        本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 このたびブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。今回は、効率的にLLMのような事前学習済みモデルを再学習する手法(PEFT)についてご紹介します。 問題意識 ビジネスで利用する際に乗り越えるべき壁 PEFTとは何か? PEFTのコンセプト分類 トークン追加型 Prefix Tuning P Tuning Prompt Tuning Adapter型 Adapter LoRA型 LoRA Ada LoRA まとめ 参考文献 こんにちは、アナリティクスサービス部の辻です。 今回は、LLMを効率的に再学習する手法として今後

                                                                          LLMを効率的に再学習する手法(PEFT)を解説 - Platinum Data Blog by BrainPad
                                                                        • LoRA のもう一つの大きなメリット、GPUメモリ共有しつつ別のタスク処理モデルへ即時に切り替える方法 - A Day in the Life

                                                                          低ランク行列を追加することで、大元のモデルを維持しつつ少ないコストで学習できる LoRA(Low-Rank Adaptation of Large Language Models)。先日、日本語でも大規模パラメータモデル cyberagent/open-calm-7b や rinna/japanese-gpt-neox-3.6b 等々がリリースされたり、HuggingFaceからはtransformersでLoRAを簡単に実現できるライブラリ、peft がリリースされたことで、試したことがある方も多いと思います。 ただ、LoRAのメリットについて主に学習の話が殆どで、もう一つの大きなメリットであるLLMのベースモデルのメモリを共有しつつ、複数のタスクをこなす方法の紹介は見かけたことがなかったので、それをpeftで行う方法についてのお話です。 なお、LoRAとは何か?というお話は、輪講資料

                                                                            LoRA のもう一つの大きなメリット、GPUメモリ共有しつつ別のタスク処理モデルへ即時に切り替える方法 - A Day in the Life
                                                                          • Stability Matrix - k本的に無料ソフト・フリーソフト

                                                                            Stable Diffusion の各種 Web UI を、簡単な操作でインストール / 起動 / 管理 できるようにするソフト。 AUTOMATIC1111、Fooocus、SD.Next、InvokeAI、ComfyUI、VoltaML といった Stable Diffusion の各種 GUI を、簡単な操作でインストール / アップデート / 起動 できるようにしてくれます。 LoRA / LyCORIS / ControlNet 等の追加学習ファイルを管理する機能や、Civitai で公開されているモデルを内蔵ブラウザから直接検索&インストールする 機能なども付いています。 Stability Matrixは、クロスプラットフォーム対応の Stable Diffusion パッケージマネージャーです。 AUTOMATIC1111 Fooocus Fooocus-ControlNe

                                                                              Stability Matrix - k本的に無料ソフト・フリーソフト
                                                                            • Stable-Diffusionの学習設定まとめ|gcem156

                                                                              なんか学習設定について、よく分からんけどデフォルト!とかよく分からんけどこうしてみたらうまくいった!みたいな感覚で議論されていることが多い気がするので、学習設定についてまとめてみようと思います。機械学習のこと知らん人にも分かるようにするはずの記事でしたが多分そうなってないです。間違いもあると思いますが、私の記事が間違っていたとしても、悪いのは私よりも頭がいい人が分かりやすい説明をしないせいであって私のせいではありません。 機械学習の簡単な説明機械学習が分からない人にも!と思って難しい用語を避けようとしてみましたが、誤差逆伝搬のことをフィードバックって言いかえたところで分かりやすくなっているのでしょうか? 機械学習はモデルの数値を学習データに合うように少しずつ調整していく作業です。なぜ少しずつかというと、機械学習では改善する方向はなんとなくわかるけど、最適な数値の位置は分からないからです。位

                                                                                Stable-Diffusionの学習設定まとめ|gcem156
                                                                              • (全体公開)Loraを2回混ぜるとどうなる?モデルの指を安定させる方法|あいおえおえかきの

                                                                                やっぱり同じLoraを2回入れると効果が高くなる気がする 強度1を1回じゃなくて、強度0.3を2回入れるみたいな感じ まだ研究が進んでないからなんとも言えないけどね — あいおえおえかきの (@NovelAIoekaki) December 9, 2023 このことは前々から気付いてはいましたが、新しいモデルを調整している時にはっきりと分かりました。 今回目指しているのはフラットなイラスト風のモデルなんですけど、指がね・・・結構破綻するんですよ。 ↓ 指がやばい。イラスト系モデルあるあるですね。 それを解決するために有効なのが「Hipoly 3D Model LoRA」というLoraを顔以外に適用することで、指を安定させるという方法。 これ自体は色んな方が知っていると思います。私も他の人の記事で見ただけなので。 ↓ 1girl, room,<lora:hipoly_3dcg_v7-epoc

                                                                                  (全体公開)Loraを2回混ぜるとどうなる?モデルの指を安定させる方法|あいおえおえかきの
                                                                                • 大規模言語モデル(LLM)をLoRAで強化する際に役立つ情報を研究者が公開

                                                                                  LoRAは画像生成モデルや大規模言語モデル(LLM)に追加の情報を学習させてモデルを微調整できる仕組みです。LoRAを用いてLLMを強化する際に役立つ情報をAI研究者のセバスチャン・ラシュカ氏が解説しています。 Practical Tips for Finetuning LLMs Using LoRA (Low-Rank Adaptation) https://magazine.sebastianraschka.com/p/practical-tips-for-finetuning-llms ◆LoRAの効果には一貫性がある Metaが開発したLLM「Llama 2」をLoRAで強化した際のベンチマーク結果を示した表が以下。「LoRA defaul 1」「LoRA defaul 2」「LoRA defaul 3」はそれぞれ異なるタイミングで作成されたLoRAモデルですが、ベンチマークスコア

                                                                                    大規模言語モデル(LLM)をLoRAで強化する際に役立つ情報を研究者が公開

                                                                                  新着記事