先日、経済産業省向けの仕事をしている知り合いと食事をしたのだが、彼によると経済産業省の今の悩みは、「IT産業の階層化の弊害によっておこる下流のプログラマーの収入の低下」だそうである。「プライムベンダー」と呼ばれる「上流コンサルタント」たちがインドや中国にも仕事を発注できることを理由に、激しく値切り始めたために、今やわずか一人月30万円というケースもあるという。 こんな話を聞くと本当に悲しくなる。まず第一に「プログラムを書く」という仕事は簡単な仕事ではない。数学的な頭を持っていないとかなり辛いし、基礎がしっかりと出来ていないとろくなソフトウェアは作れない。物価の安いインドや中国なら許せるが、米国よりも生活費の高い日本で一人月30万円とはあまりにも低すぎる。 「彼らは下流のエンジニアで、詳細仕様書に従った通りのプログラムを書くだけの簡単な仕事をしているから給料が安い」という説明を聞いたことがあ
グラフィティアートに興味がある方も多いのではないでしょうか? 海外の映画やドラマで見かけるほか、日本でも街の壁やシャッターに描かれたグラフィティアート。 実際に、街でグラフィティアートを描くのは、許可を得ていない限り犯罪行為ですので絶対にやってはいけません。 しかし、デジタルでグラフィティアート風のイラストを描くだけなら、誰にも迷惑をかけずにクールでカッコいいデザインを楽しむことができます! この記事では、メディバンペイントでのグラフィティアート風のイラストの描き方を解説します。 グラフィティアートとは? グラフィティアートは「ストリートアート」とも呼ばれ、キャンバスではなく街中の壁やシャッターに描かれた文字や絵のことを指します。 当然、所有者の許可を得ずに描かれたグラフィティアートは犯罪行為であり、アートではなく単なる落書きと捉えている方も少なくありません。 ただし、中にはアートと呼ばれ
2023年2月にMetaが発表した大規模言語モデル「LLaMA」は、従来のGPT-3よりも小規模でありながらGPT-3に匹敵する性能を単体GPUの環境でも示すことが可能とされており、2023年3月にはエンジニアのジョージ・ゲルガノフ氏がM1などのApple シリコン搭載MacでLLaMAを動作させる「llama.cpp」を公開しました。そんな中、プログラマーのジャスティン・タニー氏がllama.cppが動作する際のメモリ使用量を減らすアップデートを行い、LLaMAの一部モデルに至っては6GB未満のRAMで動作することが報告されています。 Make loading weights 10-100x faster by jart · Pull Request #613 · ggerganov/llama.cpp · GitHub https://github.com/ggerganov/llam
Google Colab で LoRA を試したのでまとめました。 1. LoRA「LoRA」(Low-rank Adaptation)は、数枚の被写体画像と対応するテキストを元にファインチューニングを行うことで、Text-to-Imageモデルに新たな被写体を学習させる手法です。 特徴は、次のとおりです。 ・Dreamboothより高速 ・VRAM 8GBでも動作 ・学習データだけ抽出して他モデルとマージできる ・学習結果のサイズが小さい (Unet のみで3MB、Unet+Clipで6MB) ・UnetとCLIPの両方をファインチューニング可能。 2. ファインチューニングの実行Colabでのファインチューニングの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」に「GPU」を選択。 (2) Googleドライブのマウント。 #
これはMidjourney v5で生成したもの 概要 最近MESONではAI関連のツールの利用が福利厚生になりました🙌 弊社CEOのnote↓ 最近はChatGPTに始まり、AI関連のニュースが毎日飛び込んできています。すでに1ヶ月後がどうなるかすら分からないレベルになってきているなと感じています。 先日も、ChatGPTのAPIが公開されたことを受けて早速、音声を利用してAIアシスタントを作るという趣旨の記事を書きました。 今回はStable Diffusion WebUIというツールを利用して、AI画像を生成する方法を紹介したいと思います。 特に、Google Colabを利用することで無料で利用することができます。 最近はブログのキービジュアルはすべてAIで生成したものを利用してたりしますw 余談ですが、最近はコーディングもCursorというエディタを利用したり、GitHub Co
React.js開発当初、「そんなものが使えるはずがない」とFacebook社内で評価されていた。React.jsの開発経緯を振り返る「React.js: The Documentary」YouTube公開 代表的なJavaScriptのフレームワークの1つであるReact.jsがどのように生まれ、発展してきたのかが、React開発当時の関係者やメンテナーなどへのインタビューによって語られる動画「React.js: The Documentary」がYouTubeで公開されています。 動画の作成と公開を行ったのは、ITエンジニア向けの転職紹介などキャリアサービスを提供しているHoneypot社。同社は以前にもKubernetesの歴史を紹介したドキュメンタリー動画「Kubernetes: The Documentary」を公開しています。 参考:KubernetesをGoogleが開発し、
Stable Diffusionなどの画像生成AIの登場によって、手軽に好みの画像を出力できる環境が整いつつありますが、テキスト(プロンプト)による指示だけで好みのポーズのイラストを生成するには長い時間や経験が必要です。新たに開発された「ControlNet」を画像生成AIと併用すれば、好みのポーズを指定したイラストを簡単に生成できるとのことなので、実際にインストールして使い方を確かめてみました。 GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet https://github.com/Mikubill/sd-webui-controlnet ControlNetでポーズや構図を指定してAIイラストを生成する方法|ddPn08|note https://note.com/ddpn08/n/n7fce83
どんな項目があって時間がどのくらいかかって、依頼するとしたら費用は適正なのか? こういった疑問を持つ人がいらっしゃいますね。 そう、車検で点検するからその時で良いじゃない? という考え方であったり、 ディーラーでやったら対して整備してなさそうなのに高額な請求をされ、さらには部品交換で追加料金を取れた…という価格の不透明さに由来する不信感も根底にはあるようです。 自分で出来るのならDIYでやって、少しでも費用を抑えたりとか、オートバックスなどのカー用品店と上手く使い分けで少しでもクルマの維持費を節約したいという思惑も有る事でしょう。 節約するポイントと、自動車整備工場などに依頼しなければいけないケースなどを解説していきます。 12ヶ月点検(1年点検)は受けないといけないものです そもそも車検と違うのか?と思っている人もいるかもしれません。 12ヶ月点検(1年点検)は、安全に走行するための12
話題のStableDiffusionがオープンソースで8/23に公開されたので、手元のマシンで動かすまで試したいと思います🖼 (下記に記載していますが、自分の環境だとVRAMが不足しているエラーが出てしまったのでイレギュラーな対応をしています🙏) ※ ↑追記 コメント欄にて、 @kn1chtさんが紹介してくださっているように、マシンのVRAMが10GB未満の環境では半精度(float16)のモデルがオススメされています。 本記事では、別の最適化されたものを紹介していますが、こちらの利用も検討してみると良さそうです👉 https://zenn.dev/link/comments/7a470dc767d8c8 StableDiffusionがどんなものかは、深津さんの記事が参考になります。 1. 環境 Razer Blade (RTX 2070, VRAM 8GB) CUDA Toolk
[Stable Diffusion] AIでテキストから画像を生成する使い方を解説 [text2img] 2022年8月23日火曜日 Artificial Intelligence Stable Diffusion 概要 Stable Diffusionは、拡散モデルによる画像合成モデルです。 自然言語で入力されたテキスト(prompt)から画像を生成するText to Imageタスクなどを実現します。 Latent Diffusionをベースとした本モデルは、非常に大規模なデータセットであるLAION-5Bを用いてトレーニングされています。 GoogleのImagenやOpenAIのGLIDE, DALLE-2など最新の画像生成モデルは社会に与える影響が大きいことなどを理由に学習済みモデルの公開を控えるケースが目立っていましたが、 Stable Diffusionでは、AIの平等な使用
2022年8月23日に無料公開された画像生成AI「Stable Diffusion」は、「ボールで遊ぶ猫」「森の中を走る犬」といった指示を与えると指示通りの画像を出力してくれます。Stable Diffusionはデモページで画像生成を試せる他、NVIDIA製GPUを搭載したマシンを用いてローカル環境で実行することも可能です。しかし、デモページは待ち時間が長く、NVIDIA製GPUは所持していない人も多いはず。Googleが提供しているPython実行環境「Colaboratory」を利用すれば、NVIDIA製GPUを所持していなくともStable Diffusionを待ち時間なしで実行する環境を無料で整えられるので、実際に環境を構築する手順や画像を生成する手順を詳しくまとめてみました。 Stable Diffusion with 🧨 Diffusers https://huggingf
何かを作りたいときは、エディターをいきなり起動してはいけません。 エディターを閉じて、まずはイメージをまとめることに集中しましょう。 なぜこの文章が必要か なぜ何かを作る前にイメージをまとめる必要があるのでしょうか? 頭の中には完璧な作りたいもののイメージがあることでしょう。 であれば今すぐにでもプログラミングを始めるのが賢明なように思えます。 ですがそうしてはいけません。理由は「作りたいもののイメージは単なる幻想だから です」。 頭のなかにあるイメージはとても素晴らしいものですが、多くの場合は曖昧で、触れられない、価値を検証できないものです。 それを一旦書き出して、まとめていく方法を知っておきましょう。 まとめていく中で作るものがより明確になり、自分でも気づかない価値を発見できます。 作るものをまとめて検証することで、作り始めた後の手戻りを防ぎます 作るものをまとめて明確にすることで、作
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く