並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 147件

新着順 人気順

画像合成の検索結果1 - 40 件 / 147件

  • 放送大学と学位授与機構で情報工学の学位を取る(科目対応表付き)|lumpsucker

    はじめにこの記事では、放送大学で修得した単位を独立行政法人大学改革支援・学位授与機構に「積み上げ単位」として提出し、2022年8月に同機構から情報工学の学士(厳密は学士(工学)、専攻の区分:情報工学)を取得した際の記録についてまとめています。 執筆者のプロフィールとこれまでの経緯についてはこちらの記事をご覧ください。いわゆる文系SEだと思っていただければ大丈夫です。これまでに何本か記事を書いていますので、この記事では学位授与機構関連の部分に絞ります。 なぜ情報工学の学位が欲しかったのか放送大学は1学部6コース構成となっており、どのコースを卒業しても(=例えば情報工学っぽい科目だけを取っても哲学っぽい科目だけを取っても)得られる学位は一律「学士(教養)」というものになります。せっかく情報科学・情報工学に全振りした履修をしたのに(教養)では少々寂しいということで、学位授与機構の「積み上げ単位」

      放送大学と学位授与機構で情報工学の学位を取る(科目対応表付き)|lumpsucker
    • Googleが「ガビガビの低解像度画像を高解像度画像に変換するAIモデル」の性能を改善、人間が判別できないレベルに

      GoogleのAI研究チームであるGoogle AIが、低解像度画像にあえてノイズを追加して「純粋なノイズ」になるまで加工し、そこから高解像度画像を生成する「diffusion model(拡散モデル)」という手法を改善する新たなアプローチを発表しました。「画質の悪い低解像度画像から高解像度画像を生成する技術」には、古い写真の復元から医療用画像の改善まで幅広い用途が想定され、機械学習の活躍が期待されているタスクの1つです。 Google AI Blog: High Fidelity Image Generation Using Diffusion Models https://ai.googleblog.com/2021/07/high-fidelity-image-generation-using.html Enhance! Google researchers detail new m

        Googleが「ガビガビの低解像度画像を高解像度画像に変換するAIモデル」の性能を改善、人間が判別できないレベルに
      • 図解Stable Diffusion

        ジェイ・アラマールのブログより。 AIによる画像生成は、(私を含めて)人々の度肝をぬく最新のAIの能力です。テキストの説明から印象的なビジュアルを作り出す能力は、魔法のような品質を持ち、人間がアートを創造する方法の変化を明確に指し示しています。Stable Diffusionのリリースは、高性能(画質だけでなく、速度や比較的低いリソース/メモリ要件という意味での性能)なモデルを一般の人々に提供することになったのは、この開発における明確なマイルストーンです。 AI画像生成を試してみて、その仕組みが気になり始めた方も多いのではないでしょうか。 ここでは、Stable Diffusionの仕組みについて優しく紹介します。 Stable Diffusionは、様々な使い方ができる汎用性の高いものです。まず、テキストのみからの画像生成(text2img)に焦点を当てます。上の画像は、テキスト入力と生

          図解Stable Diffusion
        • 放送大学マイルストーン('23)|lumpsucker

          はじめにこの記事は、放送大学の(主に情報コースを中心とする)学生さん向けに、私の履修済み科目の感想と主観的評価を共有して、履修計画の参考にしていただくことを目的に作成しました。下記の記事の通り、2019年-2020年の2年間で情報コースの科目を8割方履修したのでそれなりの網羅性があるかと思います。 (2023年2月追記)その後、選科履修生として履修した他コースの科目や大学院科目などを追加して112科目掲載しています。試験難易度については履修時期によって会場試験・在宅ペーパー試験・在宅Web試験が混在しているので参考程度でお願いします。 タイトルは私が現役生の時に通っていた大学の似たような評価システムから拝借しました。 以下の科目は基本的にナンバリングが低い順に並べています。閉講済みの科目も混じっていますが、記録と後継科目の参考のために残しておきます。あくまで全て(上記の記事にある通り、文系

            放送大学マイルストーン('23)|lumpsucker
          • AI・Python活用レシピ100選 - Qiita

            ※ 一部ガイドラインに反する内容がありましたので、該当箇所を修正のうえ再投稿しております。 はじめに Axross は、エンジニアの"教育"と"実務"のギャップに着目し、「学んだが活用できない人を減らしたい」という想いで、ソフトバンク社内起業制度にて立ち上げたサービスです。 現役エンジニアによる実践ノウハウが"レシピ"として教材化されており、実際に動くものを作りながら、具体的な目的・テーマをもってプログラミングを学ぶことができます。 今回は、Axross運営が厳選した『AI・Python活用レシピを100選』をご紹介します。是非、みなさまのAIやPython学習の参考にしてみてください。 Axross:https://axross-recipe.com 公式Twitter:https://twitter.com/Axross_SBiv 基礎 スクレイピング 01 . JUMPの掲載順をスク

              AI・Python活用レシピ100選 - Qiita
            • 無料でGPT4越え!?ついに来たXwin-LM|shi3z

              今日のウィークリーAIニュースではnpaka大先生と一週間のニュースを振り返った。今週もいろいろあったが、なんといってもダークフォース、GPT-4越えと言われるXwin-LMである。中国製。 大先生もまだ試してないというので番組内で一緒に試してみた。 もちろんドスパラ製Memeplexマシン(A6000x2)を使用。 >>> from transformers import AutoTokenizer, AutoModelForCausalLM >>> model = AutoModelForCausalLM.from_pretrained("Xwin-LM/Xwin-LM-7B-V0.1") Downloading (…)lve/main/config.json: 100%|██████████████████| 626/626 [00:00<00:00, 56.2kB/s] [2023

                無料でGPT4越え!?ついに来たXwin-LM|shi3z
              • Stable Diffusionでmorphing - すぎゃーんメモ

                #stablediffusion 完全に理解した pic.twitter.com/IR5yjnL07Y— すぎゃーん💯 (@sugyan) August 31, 2022 ということで少し触って遊んでみたのでメモ。 Stable Diffusion をザックリ理解 先月公開された Stable Diffusion。 stability.ai 高精度で美しい画像を出力できる高性能なモデルながら、Google Colab などでも手軽に動かせるし、 Apple silicon でもそれなりに動かせる、というのが魅力だ。 中身については 以下の記事の "How does Stable Diffusion work?" 以降のところが分かりやすい。 huggingface.co 図をそのまま引用させていただくと という仕組みになっていて、受け取る入力は "User Prompt" と "Late

                  Stable Diffusionでmorphing - すぎゃーんメモ
                • 広島にはホルモンの天ぷらがあるらしい

                  1988年神奈川県生まれ。普通の会社員です。運だけで何とか生きてきました。好きな言葉は「半熟卵はトッピングしますか?」です。もちろんトッピングします。(動画インタビュー) 前の記事:5000円あげるから、なんか食べてきなよ~サイゼリヤ編~ 広島に住むライターに聞いてみる 1年ほど前に結婚を機に引っ越したライターの北向さん。1年あれば色々な食べ物を食べただろう。そうだ、せっかくだから広島を案内してもらおう!と思い、「今度、広島に行くのでご飯に行きましょうよ。」と聞いたら「いま、東京に出張していていないんですよ」と言われて、記事の構成がくずれた。くずれさせないでほしい。 なのでチャットで聞いてみた。 江ノ島: 広島ってホルモンの店が多いですか? 北向 わからん…1年間あまり外食してないのでかなりわからないんですよね…家でピザばかり食べてます。 江ノ島 ピザおいしいからなー(この回答がきたとき、

                    広島にはホルモンの天ぷらがあるらしい
                  • 文系出身の若手SIer社員が放送大学で情報学を勉強してレベル上げした話|lumpsucker

                    はじめにこの記事は、文系出身の若手SIer社員が放送大学で情報学を勉強した記録です。主に似たような境遇の方への情報共有を目的に執筆しました。こんなやり方もある、という参考になれば嬉しいです。 簡単に自己紹介通信会社の名前が頭につくシステムインテグレータ(SIer)で、フロントエンドエンジニア兼UIUXデザイナーとして働いています。私立大学の文系学部を卒業後、研究留学を経て東京大学の学際情報学府という大学院で修士を取得し、2018卒として新卒入社して現在3年目ですそうこうしてるうちに5年目になりました。 大学院は広い意味での情報系ではあったものの、「社会情報学」と呼ばれる分野で、いわゆるコンピュータサイエンスではありませんでした(ICT4Dと呼ばれる国際開発学と情報学の合いの子のような分野の研究をしていました)。入社前には応用情報技術者試験にも合格し、何とかついていけるかなと思っていました。

                      文系出身の若手SIer社員が放送大学で情報学を勉強してレベル上げした話|lumpsucker
                    • 文章から“3Dモデル”をAIが生成 米Googleなどが「DreamFusion」を開発

                      Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米Google Researchと米UC Berkeleyの研究チームが発表した論文「DreamFusion: Text-to-3D using 2D Diffusion」は、テキストから3Dオブジェクトを生成するシステムを提案した研究報告だ。事前に学習したテキストから2D画像を生成する拡散モデルを用いて、テキストから3次元への合成を実行する。 テキストを条件に2D画像を生成するモデルは現在、高忠実度で多様かつ制御可能な画像合成をサポートしている。これらモデルの品質向上は、大規模な画像-テキストデータセットとスケーラブルな生成モデルアーキテクチャからもたらされる。 特に拡散モデルは、安定し

                        文章から“3Dモデル”をAIが生成 米Googleなどが「DreamFusion」を開発
                      • 画像生成AI「Stable Diffusion」を使いこなすために知っておくと理解が進む「どうやって絵を描いているのか」をわかりやすく図解

                        2022年8月に無料で一般公開された画像生成AI「Stable Diffusion」は、NVIDIA製GPUを搭載したCPUあるいはGoogle Colaboratoryのようなオンライン実行環境を整えれば、任意の文字列や誰でも画像を生成することができます。そんなStable Diffusionがどのようにして画像を生成しているのかについて、AIについてTwitterで解説を行うAI Pubが説明しています。 // Stable Diffusion, Explained // You've seen the Stable Diffusion AI art all over Twitter. But how does Stable Diffusion _work_? A thread explaining diffusion models, latent space representati

                          画像生成AI「Stable Diffusion」を使いこなすために知っておくと理解が進む「どうやって絵を描いているのか」をわかりやすく図解
                        • なぜGMOペパボがWeb3への取り組みを始めるのか - Pepabo Tech Portal

                          こんにちは。CTOのantipop.ethです。2022年3月7日に「組織の新設および役員の管掌変更等に関するお知らせ」という形で「ペパボ3推進室」の組成をお知らせしました。「ペパボ3推進室」とは、Web3に関する取り組みを進めていく組織です。 本記事では、どういう意図でそのようなお知らせをしたのか、なぜGMOペパボがWeb3への取り組みを始めるのかについて、背景と課題について述べます。本記事は、社内向けの文書を元にしていますが、後半で具体的に何をやっていくのかを書いた部分については割愛しています。これからの取り組みにご期待ください。 TL;DR わたしたちは、これからのインターネットの展望を開く新たなパラダイムとなり得るWeb3に対して、これまでに築いてきた強みを生かした取り組みを始めます。 Web3の魅力のひとつは、経済システムをプロトコルとしてビルトインすることによって、クリエイター

                            なぜGMOペパボがWeb3への取り組みを始めるのか - Pepabo Tech Portal
                          • 画像生成AIに“AIが作った画像”を学習させ続けると? “品質や多様性が悪化” 「モデル自食症」に

                            このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 米ライス大学と米スタンフォード大学に所属する研究者らが発表した論文「Self-Consuming Generative Models Go MAD」は、AIが生成した画像(合成データ)を用いて別の生成モデルが学習し続けると、その精度にどのような影響がでるのかを検証した研究報告である。 結果は、AIモデルを合成データでトレーニングすると、画像が乱れるアーティファクトが徐々に増幅され、品質や視覚的多様性のいずれにおいても悪化する結果を示した。研究チームは、この状態を狂牛病になぞらえて「Model Autophagy Disorder」(モデル自

                              画像生成AIに“AIが作った画像”を学習させ続けると? “品質や多様性が悪化” 「モデル自食症」に
                            • コナミの壁透過カメラ特許をちゃんと読んでみたら無罪だった件|ぽんぽこ

                              特許にうるさいコナミゲーム業界で最も影響があった事件の1つに、コナミがナムコに対して特許権を行使した「音楽ゲーム訴訟(音ゲー事件、ビートマニア事件、リズムゲーム訴訟とも言われる)」があります。この訴訟は1999年に提起され、2000年に和解で決着がついたのですが、日本の大手ゲーム会社同士が争った特許訴訟ということで、大きな注目を集めました。企業だけでなくゲームユーザの注目を集めたことや、他にも知財の権利行使が多いこともあって、コナミは特許にうるさい会社として認知され、アンチパテントの立場から悪く言えば特許ゴロとしての評判を確立することになります。 コナミの壁透過カメラがゲーム開発を阻害した?ゲームユーザ視点では、コナミの特許といえば音楽ゲーム特許以外にももう一つ有名な特許があります。「壁透過カメラ特許(3Dゲームの壁際カメラ特許、壁カメラ特許などとも言われる)」です。この特許権は2016年

                                コナミの壁透過カメラ特許をちゃんと読んでみたら無罪だった件|ぽんぽこ
                              • Stable Diffusion入門-美少女写真 - 電通総研 テックブログ

                                電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回は、美少女写真の呪文です。 今回の記事は、レンズ編がベースになっています。まだ、ご覧になっていない方は、もしよろしければお試しください。 今回の企画は、【公開】Stable Diffusionで美しい女性のポートレートを描くの記事が素晴らしかったので、思いついた企画です。まだ、見ていない方は是非ご覧ください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文 美少女アニメ画 美少女写真編 女性イラスト 魅惑的な女アニメ画(トゥー

                                  Stable Diffusion入門-美少女写真 - 電通総研 テックブログ
                                • Stable Diffusion入門-美少女アニメ画 - 電通総研 テックブログ

                                  電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回は、美少女アニメ画の呪文です。 v2.1 美少女アニメ画の記事も書きました。よろしければご覧ください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文編 美少女アニメ画編 美少女写真編 女性イラスト編 魅惑的な女アニメ画(トゥーンレンダリング)編 長い呪文は切り捨てられる編 japanese anime of a beautiful girl pixiv, light novel, digital painting fanta

                                    Stable Diffusion入門-美少女アニメ画 - 電通総研 テックブログ
                                  • スマホで“1.8秒” テキストから高速で画像を生成するAI「SnapFusion」 Stable Diffusionと同等の画質

                                    Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。Twitter: @shiropen2 拡散に基づくテキスト画像合成モデルは、テキストプロンプトを用いたフォトリアリスティックなコンテンツの合成において著しい進歩を示している。しかし、これらのモデルは大規模で、複雑なネットワークアーキテクチャと数十回のノイズ除去の繰り返しがあるため、計算コストが高く、実行に時間がかかる。 その結果、入力から出力までの時間を短くするには、ハイエンドGPUを搭載した大規模なクラウドベースのプラットフォームが必要になる。 モバイル機器上でテキストから画像への拡散モデルの推論を高速化する取り組みが新たに始まっている。例えば、Samsung Galaxy S23 Ul

                                      スマホで“1.8秒” テキストから高速で画像を生成するAI「SnapFusion」 Stable Diffusionと同等の画質
                                    • Stable Diffusion入門-女性イラスト - 電通総研 テックブログ

                                      電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回は、女性のイラストの呪文です。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文編 美少女アニメ画編 美少女写真編 女性イラスト編 魅惑的な女アニメ画(トゥーンレンダリング)編 長い呪文は切り捨てられる編 illustration of a gorgeous woman beautiful face, long waved hair, cute eyes artstation, deviantart, concept art,

                                        Stable Diffusion入門-女性イラスト - 電通総研 テックブログ
                                      • 2022年版・深層学習による写実的画像合成の最新動向

                                        2022/9/14 GPU UNITE 2022 / Day3:CG研究 セッション (https://gdep-sol.co.jp/gpu-event/gpu-unite-2022/day3/) 講演資料

                                          2022年版・深層学習による写実的画像合成の最新動向
                                        • 「iPhone 11」レビュー 超広角レンズがもたらすカメラ革命

                                          アップルのiPhone 11シリーズがいよいよ登場します。「カメラが増えただけじゃないの?」といぶかしがる声もありますが、追加された超広角カメラはこれまでのスマホやレンズ交換式カメラでも不可能だった撮影を可能にしてくれるなど、革命的な存在だと感じました。鹿野貴司カメラマンとともに、iPhone 11とiPhone 11 Proのカメラ機能の実力をチェックしていきたいと思います。 9月20日に販売が始まるiPhone 11シリーズ。これまでにない機能をもたらす超広角カメラの搭載が、写真ファンのみならずSNSを楽しむ一般ユーザーにとっても注目の存在となりそうだ iPhone 11シリーズは「iPhone 11」「iPhone 11 Pro」「iPhone 11 Pro Max」の3機種とも、初めて超広角カメラを搭載したのが特徴。35mm判換算で13mm相当の超広角レンズは、レンズ交換式カメラの

                                            「iPhone 11」レビュー 超広角レンズがもたらすカメラ革命
                                          • プラモデルの塗装中、模型に筆を近付けるとエアブラシを使ったみたいに勝手に塗料が吹き付けられる...怪奇現象?→「静電気ですね」

                                            雅信(Masa-nobu) @masanobu7110 飛行機大好きです。 主に1/48を作っていますがスキルが低くて素組ばかりです。完成したら画像合成で色んなシーンを作るのが楽しいです。 I love airplanes. I mainly make 1/48, but my skill is low. Thank you! 🇯🇵

                                              プラモデルの塗装中、模型に筆を近付けるとエアブラシを使ったみたいに勝手に塗料が吹き付けられる...怪奇現象?→「静電気ですね」
                                            • AI製のディープフェイクポルノ動画がGoogle検索でヒットするサイトで売買されている、有名人だけでなく一般人も標的に

                                              高精度な画像合成AIの登場によって浮上した問題の1つが、他人の顔を無断で使用するディープフェイクポルノです。NBCニュースが、「Google検索で簡単に見つけられるウェブサイトに大量のディープフェイク動画が投稿されており、有名人だけでなく一般人を標的にしたディープフェイクの作成を請け負うビジネスも存在する」と報じています。 The deepfake AI porn industry is operating in plain sight https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard-download-rcna75071 AIを用いて写真や動画の一部を別の素材とすり替えるディープフェイクは、AI技術の発達に伴って深刻な問題となっています。一般

                                                AI製のディープフェイクポルノ動画がGoogle検索でヒットするサイトで売買されている、有名人だけでなく一般人も標的に
                                              • ブレンドモード - Wikipedia

                                                ブレンドモード(またはレイヤーの合成モード、描写モード)とは、デジタル画像編集およびコンピュータグラフィックス(CG)の分野において、2つのレイヤーが互いにどのように合成されるかを決定するための設定である。 解説[編集] ほとんどのアプリケーションのデフォルトのブレンドモードは、単に上のレイヤーで下のレイヤーを覆い隠すというものである。一方で、2つのレイヤーをブレンドするブレンドモードがたくさん用意されている。それぞれの「レイヤー」の画像を構成するピクセルの一つ一つが、RGB値(カラーチャンネル)やアルファ値(アルファチャンネル)などを表す数値を持っており、それに応じて適切なブレンド方式を使い分ける必要がある。 Adobe PhotoshopやGIMPなど多くのCGソフトでは、「基本的」なブレンドモードだけでも結構あり、ユーザーはレイヤーの不透明度を変更するなどして、レイヤーの合成方式をい

                                                • [個人開発]大喜利サービスを5日でつくってわかったこと - Qiita

                                                  TOTALで3日くらいで作りたかったのですが、 他作業もちょこちょこしたりして結局TOTAL工数としては一週間弱かかってしまいました。 あとは、OGP画像の自動生成ロジックになかなか手こずってしまいました。 企画〜コーディングについては慣れたものでトータル1日ちょっとでした。 ただ、かの有名なpeing(質問箱)を作ったせせりさんは、 peingを6時間で作ったとのことなのでまだまだ精進のしがいがあるなというところです。 なお、僕の場合、とにかく早く作って出すということを大前提にしているため こういったスケジュール感になりがちです。 余談ですが、Facebookのマークザッカーバーグの言葉で好きなのがこちら。 「完璧を目指すよりまず終わらせろ」 途中経過 ワイヤー ※ちなみにこれは違うサービスのワイヤーです。ザブトンのものはデザインで上書きしてしまって、残してありませんでした...すみませ

                                                    [個人開発]大喜利サービスを5日でつくってわかったこと - Qiita
                                                  • 雑な手描きスケッチからリアルな顔写真を正確かつリアルタイムで作り出す「DeepFaceDrawing」

                                                    人工知能(AI)の発達により、存在しない架空の人物を写真でリアルに作り出すことが容易になってきています。新たに中国の研究者らは、ラフな手描きスケッチをリアルタイムで特徴をしっかりとらえた顔写真に変換する技術を開発しました。手描きスケッチがみるみるうちにリアルな顔に変わっていく、衝撃のムービーが公開されています。 DeepFaceDrawing: Deep Generation of Face Images ... - arXiv (PDFファイル)https://arxiv.org/pdf/2006.01047.pdf DeepFaceDrawing Generates Photorealistic Portraits from Freehand Sketches - Synced https://syncedreview.com/2020/06/04/deepfacedrawing-ge

                                                      雑な手描きスケッチからリアルな顔写真を正確かつリアルタイムで作り出す「DeepFaceDrawing」
                                                    • 米NVIDIAなど、眼鏡サイズのVRヘッドセット開発 フルカラー3D画像を表示

                                                      Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米NVIDIAと米スタンフォード大学の研究チームが開発した「Holographic Glasses for Virtual Reality」は、眼鏡に近いフォームファクタを備えた超薄型ニアアイディスプレイだ。2.5mmの厚さの光学系を備え、フルカラーの3D画像を提供する。 VRヘッドマウントディスプレイ(HMD)の大きなデメリットは嵩張る点だ。この問題は、マイクロディスプレイの画像を拡大するレンズが必要という、光学系の原理から生じている。この設計では、マイクロディスプレイとレンズの間の距離を比較的大きくとる必要があり、その分が前方の出っ張りを作っている。 この課題に対して注目を浴びたのがパ

                                                        米NVIDIAなど、眼鏡サイズのVRヘッドセット開発 フルカラー3D画像を表示
                                                      • GoogleはAI開発競争における防壁を持っていません!OpenAIもです!

                                                        1.GoogleはAI開発競争における防壁を持っていません!OpenAIもです!まとめ ・Google社内から流出したとされる文章がGoogleはOpen Sourceの取り組みからもっと学ぶべきという趣旨を主張していた ・Googleが巨費をかけた大規模モデルで苦戦していることを100ドルと130億パラメータと数週間で実現しているとの事 ・イラスト生成AIで起こったカスタマイズしたモデルの流行は大規模言語モデル界隈でも起こっていく可能性はあるかもしれない 2.AI開発競争における競争優位性とは? 以下、www.semianalysis.comより「Google “We Have No Moat, And Neither Does OpenAI”」の意訳です。私はhardmaruさんのTwitterで知りましたが、Google社内文章の流出とされています。一部報道によれば執筆者の方も既に特

                                                          GoogleはAI開発競争における防壁を持っていません!OpenAIもです!
                                                        • 【伝統?動物愛護?】土佐犬は「土佐闘犬」と呼ばれる。闘犬の歴史と改善点。

                                                          現代においては必要とはかけらも思われない 悪しき伝統行事だってあるのにね。 過去にも同様の事故があっても 改善もできないのはなぜか。 騒ぐ人が悪いのか。 伝統と、危険性。 この二つを天秤にかけたとき、 どちらを優先するべきかは明らかな気もしますが、 この「伝統」と呼ばれる闘犬について調べてみました。 闘犬の歴史は古く、古代ローマ時代にはすでにあった。 闘犬の歴史は、古代ローマ時代まで遡ります。 当時のローマ人たちがコロッセウムで 奴隷や剣闘士同士を闘わせ、それを見世物にしていたのは有名な話。 犬 も同じような娯楽に使われていたようです。 ローマ人たちが余興の一環として、 軍用犬だったマスティフ系の犬を戦わせることを初めた。 これが闘犬のルーツとなっています。 闘犬の全盛期は18〜19世紀。 この頃にはリング上でライオンやオオカミ、熊、牛など他の動物と、 瞬発力のあるブル系やテリア系の犬種を

                                                            【伝統?動物愛護?】土佐犬は「土佐闘犬」と呼ばれる。闘犬の歴史と改善点。
                                                          • Stable Diffusion入門-レンズ - 電通総研 テックブログ

                                                            電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回のテーマはレンズです。 Stable DiffusionはAIカメラなので、どのようなレンズを使うかどうかはとても重要です。カメラの知識が必要ですが、基礎から丁寧に説明するので大丈夫です。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文編 美少女アニメ画編 美少女写真編 女性イラスト編 魅惑的な女アニメ画(トゥーンレンダリング)編 長い呪文は切り捨てられる編 レンズの属性 焦点距離 F値 SIGMA SIGMA 85 mm F

                                                              Stable Diffusion入門-レンズ - 電通総研 テックブログ
                                                            • 拡散モデルを用いた2Dバーチャル試着技術について - BASEプロダクトチームブログ

                                                              はじめに こんにちは。BASEのデータ分析チーム(Data Strategy Team)で不正対策を行ったり、機械学習モデルを触ったりしている竹内です。 先日チーム内の論文読み会でニューラルネットを用いた画像合成によるバーチャル試着技術というトピックに触れる機会があったので、その最近のトレンドについて改めてブログという形でまとめてみました。 バーチャル試着は画像生成モデルの実用的なユースケースの一つとして今現在データセットの拡充やアーキテクチャの検証が進んでいる分野の一つであり、個人的には非常にアツいトピックだと感じています。 バーチャル試着とは バーチャル試着(Virtual Try On)とは、ある人物がある衣服を着用した状態を画像や3Dモデルなどの情報をもとに仮想的に実現し、どのように見えるか可視化する技術のことです。 ネットショップの普及により、店頭に出向かずともPCやスマートフォ

                                                                拡散モデルを用いた2Dバーチャル試着技術について - BASEプロダクトチームブログ
                                                              • 中国ECサイトの日本素材画像巡り

                                                                変なモノ好きで、比較文化にこだわる2人組(1号&2号)旅行ライターユニット。中国の面白可笑しいものばかりを集めて本にした「 中国の変-現代中国路上考現学 」(バジリコ刊)が発売中。 前の記事:ドイツのガチャガチャはやさぐれている > 個人サイト 旅ライターユニット、ライスマウンテンのページ 素材も爆速 新型肺炎で大変だよなあ、と思って新型肺炎にあたる中国語ワードで検索すると、「ウイルスに負けるな頑張れ」の素材画像が見つかった、というのが発見のきっかけだ。 早い、とても早い。でも売れてないようだ。。。 Photoshopファイルの拡張子のpsdで検索すると素材画像の商品がたくさん見つかる。日本で素材画像というと、コールセンター女性がインカムをつけている写真、微笑みあうカップルの写真など、無加工の写真を指す場合が多い。しかし中国ではもっとゴリゴリに加工された、ほとんどポスターみたいな画像が売ら

                                                                  中国ECサイトの日本素材画像巡り
                                                                • AIが書いたテキストに“電子透かし”を入れる技術 人に見えない形式で埋め込み 米国チームが開発

                                                                  Web上の合成データ(AIが生成するテキストや画像など)の急増は、今後のデータセット作成の取り組みを複雑にしている。合成データは人間のコンテンツよりも劣ることが多く、モデル学習の前に検出し、除外しなければならないからである。 電子透かしとは、テキスト中の隠れたパターンのことで、人間には知覚できないが、アルゴリズム的には合成テキストであることを識別可能にする。この研究では、合成テキストを短いトークン(25トークン程度)から検出可能にする効率的な電子透かしを提案する。 トークンを、1個前のトークンのハッシュ値を元にして、グリーントークンとレッドトークンに分ける。生成したテキストではグリーントークンの割合が高くなるように設定する。グリーントークンとレッドトークンの割合を分析することで、電子透かしが埋め込まれているかを判定する。 電子透かしは、言語モデルのAPIにアクセスしなくても、アルゴリズムで

                                                                    AIが書いたテキストに“電子透かし”を入れる技術 人に見えない形式で埋め込み 米国チームが開発
                                                                  • 「mmhmm」がSequoiaなどから約33億円の大型調達、何がすごいのか? | Coral Capital

                                                                    Evernoteの元CEO、フィル・リービン氏が2020年7月7日にベータ版として発表した「mmhmm」(ンーフー)が、わずか3か月後の10月8日に名門VCのSequoia Capitalをリードとして約33億円(3,100万ドル)のシリーズAの資金調達を発表しました。リービン氏は「ジョークのような感じで始まった」と言いますが、ベータローンチから3か月目にしては大型のシリーズA調達です(この投資ラウンドには三木谷浩史氏や中島聡氏ら日本の投資家・経営者、WiLやScrum Venturesなど日系VCも参加しています)。 何がすごいのでしょうか? mmhmmもそれ自体が非常に斬新で便利なアプリですが、私にはそこに大きな時代の変化の予兆があるように思えるのです。テレビの世界で1990年代から天気予報番組などで利用されてきた「クロマキー合成」という画像処理技術が一気に民主化し、多くのサービスやア

                                                                      「mmhmm」がSequoiaなどから約33億円の大型調達、何がすごいのか? | Coral Capital
                                                                    • インフラの整備、SLIとSLOの設定、セール対策 Railsアプリケーションのユーザ体験を支えるSREの取り組み

                                                                      オリジナルグッズ作成・販売サービス「SUZURI byGMOペパボ」に関わるエンジニアメンバーや事業部長が登壇し、SUZURIの開発の今や、現在の課題・今後の取り組みについて話す「43万人超のクリエイターの表現活動を支える!ECプラットフォームSUZURIの開発の裏側」。ここでモバイル/Webアプリケーションエンジニアの時田氏が登壇。SRE活動として行っていることを紹介します。 自己紹介と今日話すこと 時田理氏(以下、時田):「SUZURIにおけるSREの取り組み」というタイトルで発表します。よろしくお願いします。自己紹介です。「SUZURI」というサービスのモバイルと、Webアプリケーションエンジニアをやっています。 今日話すことです。すみません、最初におことわりなんですけど、最初の仮のタイトルではFlutterに関する登壇をする予定だったんですが、今日はちょっとFlutterの話はしな

                                                                        インフラの整備、SLIとSLOの設定、セール対策 Railsアプリケーションのユーザ体験を支えるSREの取り組み
                                                                      • GPT-4のコード生成精度を2倍以上向上させる「AlphaCodium」、写真1枚から本人性を維持した画像を量産できる「InstantID」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                        2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第30回目は、PhotoMakerのライバルともいうべき技術やAppleのLLMなど、生成AI最新論文の概要5つを紹介します。 生成AI論文ピックアップ大規模言語モデルのコード生成能力を向上させるツール「AlphaCodium」 高解像度の画像を高いメモリ効率で高速処理する視覚理解モデル「Vision Mamba」 1枚の写真からアイデンティティを維持しながら画像を量産できる画像生成モデル「InstantID」、SDXLとの統合も可能 ソースコードを一行も書かずに、大規模言語モデルを実際のアプリに導入できる推論エンジン「Inferflow」 Apple、20億枚の画像

                                                                          GPT-4のコード生成精度を2倍以上向上させる「AlphaCodium」、写真1枚から本人性を維持した画像を量産できる「InstantID」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                        • 【LCM】512×512pxの画像を0.02秒でリアルタイム画風変換する

                                                                          はじめに こんにちは。 一昨日、土日を1日潰してLatent Cosistency Model(LCM)の推論高速化に取り組んでみたところ、そこそこ上手くいき、512×512pxの画像をimage-to-image(img2img)するタスクにおいてRTX3090で26fps、A100で33fpsの推論速度が出るようになりました。 【追記】RTX4090だと45fps出たそうなので、記事のタイトルをわずかに更新しました。記事作成当時はA100で検証していたので、以下ご了承ください。 画像1枚につき0.03秒で処理できていることになるので、ほぼリアルタイムで変換できていると言ってもいいのではないでしょうか。 プログレスバーが1%進むごとに1枚の画像のimg2imgが完了しています。気持ちいいですね。 そこで、この記事では、当高速化に取り組んだとき経験的に(理論的にではない)得られた、LCM推

                                                                            【LCM】512×512pxの画像を0.02秒でリアルタイム画風変換する
                                                                          • エッジAIの展示まとめレポ 【CEATEC2019】|Marina Sakaguchi

                                                                            久しぶりの展示会レポートです! 前回の展示会レポから半年も経っていて驚愕。時間の流れは早いですね。 行く前にこのツイートを見かけてはいたのですが、AI系の展示は相変わらず多いものの、案の定人物検出や姿勢推定などのデモが多くパッと見同じに見えました(ブーメラン) シーテックにいってきたけれど、みんなで人物検出のgithubクローンしてた。ディープラーニングという篝火を手に入れたのに、みんなそんなことしかしていなくてとても悔しい。もっと人類の危機への対策や人類の限界に挑戦すべきはずなのに — 木村優志: Convergence Lab. (@orcinus_orca) October 16, 2019 ただ、わたしはこれに関してはあんまり批判的な気持ちではなく、昔は人物検出ですら凄い〜〜ってなってたのが、今はまた人物検出か、となってるのは一般のリテラシーも上がっているということかもしれんのでい

                                                                              エッジAIの展示まとめレポ 【CEATEC2019】|Marina Sakaguchi
                                                                            • Amazon Lookout for Visionで青森認証やってみた - Qiita

                                                                              不良品検出のAIサービス「Amazon Lookout for Vision」が先週25日(木)に東京リージョンでの提供開始が発表されましたが、27日(土)には早くも「AWSの基礎を学ぼう」コミュニティのハンズオンが開催され、実際に体験してみることができました。 AI、機械学習系のハンズオンということで待ち時間なんかもあるわけですが、そこにソラコムの @ma2shita さんの「Amazon Lookout for Vision 向いてるコト、使いどころと注意点」とかJAWS-UG名古屋の @nori2takanori さんの「画像ベース異常検知Amazon Lookout for Visionを使ってみよう」とかLTが入って、退屈する暇のない2時間でした。その中で出てきたスライドの一枚がこちら。 Lookout for Visionは不良品検知にしか使えないサービスじゃないぞ、と。アイデ

                                                                                Amazon Lookout for Visionで青森認証やってみた - Qiita
                                                                              • "映え"おやつ写真を撮る方法

                                                                                愛知県出身、東京都在住のデザイナー。イラストを描き、写真撮影をして日々を過ごす。 最近は演劇の勉強に熱中。大きなエビフライが好き。 前の記事:浸し食べなら ムーンライトソフトケーキだ > 個人サイト 梅ログ かんたん「映え」の方法 おやつと、タブレットと、いい感じの画像。今回背景画像にはフリー素材を使用した。 やることは単純。いい感じの画像を全画面表示したタブレットに、よく見せたい物(おやつ)を置く。その状態をスマホで撮影する。 タブレット画面が明るすぎると逆光になってしまう。見栄えに影響するため、撮影前に調節しておく。 そうして撮影した画像に、画像加工アプリを使ってトリミングやフィルターといった加工を適宜施すだけ。 加工後の画像。レンガの背景がオシャレ〜。 タブレットの画面サイズに収まる大きさのおやつの撮影にちょうどいい。配置場所や構図を調整すれば、少し高さがある物も撮ることができる。

                                                                                  "映え"おやつ写真を撮る方法
                                                                                • Goでheadless browserを用いた動的画像生成|Seiji Takahashi@ベースマキナ

                                                                                  当ポストはGo Advent Calendar 2019の5日目の記事です。基本ポエムを書いていて技術記事を書く感覚が鈍っていますが頑張ります。 今回はGoでheadless browser(Chrome)を用いた、動的な画像生成を行うというテーマで書きたいと思います。 なぜ画像生成したいのか?人はなぜ画像を生成したくなるのでしょうか?僕は漫然と画像を生成するのは、時間に限りがある身としてはよくないな、と思います。ということで理由が必要なのですが、最たる例はOGP画像の生成とかじゃないでしょうか? あるいは任意のLGTM画像を生成したくて、文字を画像にかぶせたり、インスタグラムVer1.1みたいなサービスをローンチしたい時に、フィルター加工を実装したかったりするかもしれません。 Goで画像生成するには?Goで画像生成する方法に関してはこの1、2年でpo3rinさんや僕がしばしば登壇して解説

                                                                                    Goでheadless browserを用いた動的画像生成|Seiji Takahashi@ベースマキナ