並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 10 件 / 10件

新着順 人気順

画像合成の検索結果1 - 10 件 / 10件

  • 放送大学と学位授与機構で情報工学の学位を取る(科目対応表付き)|lumpsucker

    はじめにこの記事では、放送大学で修得した単位を独立行政法人大学改革支援・学位授与機構に「積み上げ単位」として提出し、2022年8月に同機構から情報工学の学士(厳密は学士(工学)、専攻の区分:情報工学)を取得した際の記録についてまとめています。 執筆者のプロフィールとこれまでの経緯についてはこちらの記事をご覧ください。いわゆる文系SEだと思っていただければ大丈夫です。これまでに何本か記事を書いていますので、この記事では学位授与機構関連の部分に絞ります。 なぜ情報工学の学位が欲しかったのか放送大学は1学部6コース構成となっており、どのコースを卒業しても(=例えば情報工学っぽい科目だけを取っても哲学っぽい科目だけを取っても)得られる学位は一律「学士(教養)」というものになります。せっかく情報科学・情報工学に全振りした履修をしたのに(教養)では少々寂しいということで、学位授与機構の「積み上げ単位」

      放送大学と学位授与機構で情報工学の学位を取る(科目対応表付き)|lumpsucker
    • Googleが「ガビガビの低解像度画像を高解像度画像に変換するAIモデル」の性能を改善、人間が判別できないレベルに

      GoogleのAI研究チームであるGoogle AIが、低解像度画像にあえてノイズを追加して「純粋なノイズ」になるまで加工し、そこから高解像度画像を生成する「diffusion model(拡散モデル)」という手法を改善する新たなアプローチを発表しました。「画質の悪い低解像度画像から高解像度画像を生成する技術」には、古い写真の復元から医療用画像の改善まで幅広い用途が想定され、機械学習の活躍が期待されているタスクの1つです。 Google AI Blog: High Fidelity Image Generation Using Diffusion Models https://ai.googleblog.com/2021/07/high-fidelity-image-generation-using.html Enhance! Google researchers detail new m

        Googleが「ガビガビの低解像度画像を高解像度画像に変換するAIモデル」の性能を改善、人間が判別できないレベルに
      • 図解Stable Diffusion

        ジェイ・アラマールのブログより。 AIによる画像生成は、(私を含めて)人々の度肝をぬく最新のAIの能力です。テキストの説明から印象的なビジュアルを作り出す能力は、魔法のような品質を持ち、人間がアートを創造する方法の変化を明確に指し示しています。Stable Diffusionのリリースは、高性能(画質だけでなく、速度や比較的低いリソース/メモリ要件という意味での性能)なモデルを一般の人々に提供することになったのは、この開発における明確なマイルストーンです。 AI画像生成を試してみて、その仕組みが気になり始めた方も多いのではないでしょうか。 ここでは、Stable Diffusionの仕組みについて優しく紹介します。 Stable Diffusionは、様々な使い方ができる汎用性の高いものです。まず、テキストのみからの画像生成(text2img)に焦点を当てます。上の画像は、テキスト入力と生

          図解Stable Diffusion
        • 放送大学マイルストーン('23)|lumpsucker

          はじめにこの記事は、放送大学の(主に情報コースを中心とする)学生さん向けに、私の履修済み科目の感想と主観的評価を共有して、履修計画の参考にしていただくことを目的に作成しました。下記の記事の通り、2019年-2020年の2年間で情報コースの科目を8割方履修したのでそれなりの網羅性があるかと思います。 (2023年2月追記)その後、選科履修生として履修した他コースの科目や大学院科目などを追加して112科目掲載しています。試験難易度については履修時期によって会場試験・在宅ペーパー試験・在宅Web試験が混在しているので参考程度でお願いします。 タイトルは私が現役生の時に通っていた大学の似たような評価システムから拝借しました。 以下の科目は基本的にナンバリングが低い順に並べています。閉講済みの科目も混じっていますが、記録と後継科目の参考のために残しておきます。あくまで全て(上記の記事にある通り、文系

            放送大学マイルストーン('23)|lumpsucker
          • AI・Python活用レシピ100選 - Qiita

            ※ 一部ガイドラインに反する内容がありましたので、該当箇所を修正のうえ再投稿しております。 はじめに Axross は、エンジニアの"教育"と"実務"のギャップに着目し、「学んだが活用できない人を減らしたい」という想いで、ソフトバンク社内起業制度にて立ち上げたサービスです。 現役エンジニアによる実践ノウハウが"レシピ"として教材化されており、実際に動くものを作りながら、具体的な目的・テーマをもってプログラミングを学ぶことができます。 今回は、Axross運営が厳選した『AI・Python活用レシピを100選』をご紹介します。是非、みなさまのAIやPython学習の参考にしてみてください。 Axross:https://axross-recipe.com 公式Twitter:https://twitter.com/Axross_SBiv 基礎 スクレイピング 01 . JUMPの掲載順をスク

              AI・Python活用レシピ100選 - Qiita
            • 無料でGPT4越え!?ついに来たXwin-LM|shi3z

              今日のウィークリーAIニュースではnpaka大先生と一週間のニュースを振り返った。今週もいろいろあったが、なんといってもダークフォース、GPT-4越えと言われるXwin-LMである。中国製。 大先生もまだ試してないというので番組内で一緒に試してみた。 もちろんドスパラ製Memeplexマシン(A6000x2)を使用。 >>> from transformers import AutoTokenizer, AutoModelForCausalLM >>> model = AutoModelForCausalLM.from_pretrained("Xwin-LM/Xwin-LM-7B-V0.1") Downloading (…)lve/main/config.json: 100%|██████████████████| 626/626 [00:00<00:00, 56.2kB/s] [2023

                無料でGPT4越え!?ついに来たXwin-LM|shi3z
              • Stable Diffusionでmorphing - すぎゃーんメモ

                #stablediffusion 完全に理解した pic.twitter.com/IR5yjnL07Y— すぎゃーん💯 (@sugyan) August 31, 2022 ということで少し触って遊んでみたのでメモ。 Stable Diffusion をザックリ理解 先月公開された Stable Diffusion。 stability.ai 高精度で美しい画像を出力できる高性能なモデルながら、Google Colab などでも手軽に動かせるし、 Apple silicon でもそれなりに動かせる、というのが魅力だ。 中身については 以下の記事の "How does Stable Diffusion work?" 以降のところが分かりやすい。 huggingface.co 図をそのまま引用させていただくと という仕組みになっていて、受け取る入力は "User Prompt" と "Late

                  Stable Diffusionでmorphing - すぎゃーんメモ
                • 広島にはホルモンの天ぷらがあるらしい

                  1988年神奈川県生まれ。普通の会社員です。運だけで何とか生きてきました。好きな言葉は「半熟卵はトッピングしますか?」です。もちろんトッピングします。(動画インタビュー) 前の記事:5000円あげるから、なんか食べてきなよ~サイゼリヤ編~ 広島に住むライターに聞いてみる 1年ほど前に結婚を機に引っ越したライターの北向さん。1年あれば色々な食べ物を食べただろう。そうだ、せっかくだから広島を案内してもらおう!と思い、「今度、広島に行くのでご飯に行きましょうよ。」と聞いたら「いま、東京に出張していていないんですよ」と言われて、記事の構成がくずれた。くずれさせないでほしい。 なのでチャットで聞いてみた。 江ノ島: 広島ってホルモンの店が多いですか? 北向 わからん…1年間あまり外食してないのでかなりわからないんですよね…家でピザばかり食べてます。 江ノ島 ピザおいしいからなー(この回答がきたとき、

                    広島にはホルモンの天ぷらがあるらしい
                  • 文系出身の若手SIer社員が放送大学で情報学を勉強してレベル上げした話|lumpsucker

                    はじめにこの記事は、文系出身の若手SIer社員が放送大学で情報学を勉強した記録です。主に似たような境遇の方への情報共有を目的に執筆しました。こんなやり方もある、という参考になれば嬉しいです。 簡単に自己紹介通信会社の名前が頭につくシステムインテグレータ(SIer)で、フロントエンドエンジニア兼UIUXデザイナーとして働いています。私立大学の文系学部を卒業後、研究留学を経て東京大学の学際情報学府という大学院で修士を取得し、2018卒として新卒入社して現在3年目ですそうこうしてるうちに5年目になりました。 大学院は広い意味での情報系ではあったものの、「社会情報学」と呼ばれる分野で、いわゆるコンピュータサイエンスではありませんでした(ICT4Dと呼ばれる国際開発学と情報学の合いの子のような分野の研究をしていました)。入社前には応用情報技術者試験にも合格し、何とかついていけるかなと思っていました。

                      文系出身の若手SIer社員が放送大学で情報学を勉強してレベル上げした話|lumpsucker
                    • 文章から“3Dモデル”をAIが生成 米Googleなどが「DreamFusion」を開発

                      Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米Google Researchと米UC Berkeleyの研究チームが発表した論文「DreamFusion: Text-to-3D using 2D Diffusion」は、テキストから3Dオブジェクトを生成するシステムを提案した研究報告だ。事前に学習したテキストから2D画像を生成する拡散モデルを用いて、テキストから3次元への合成を実行する。 テキストを条件に2D画像を生成するモデルは現在、高忠実度で多様かつ制御可能な画像合成をサポートしている。これらモデルの品質向上は、大規模な画像-テキストデータセットとスケーラブルな生成モデルアーキテクチャからもたらされる。 特に拡散モデルは、安定し

                        文章から“3Dモデル”をAIが生成 米Googleなどが「DreamFusion」を開発
                      1