日本を画像生成AIで再現する 「自分の見た景色」を学習したAIは強力な思い出再生装置に:清水亮の「世界を変えるAI」(1/3 ページ) 2022年の夏に登場した画像生成AI「StableDiffusion」はたくさんのバリエーションを生んだ。しかしその多くは、ネット上にある画像を学習させたものばかりだ。 特に開発が活発なのはイラストを学習させたものだが、最近になって、著作権に配慮した学習モデルの「Mitua-Diffusion」など、変わったものも登場してきた。また、AIを活用したアート作品を表彰する「第一回AIアートグランプリ」も1月15日から募集を開始した。 筆者自身も個人プロジェクトとして、StableDiffusionを誰でも無料で使えるWebサービス「Memeplex」を提供したり、前回のこの連載で紹介したように、AI漫画などを書いたりしている。 しかしAIで漫画を書こうとすると
画像生成AI「Stable Diffusion」では、画像を生成したい場合はあらかじめ「プロンプト」と呼ばれる文字列が必要となりますが、このプロンプトは単に文章で書けばいいというわけではなく、独自の形式や順番で入力しなければならず、KREAやLexicaといったサービスを使って既存のプロンプトを調べて組み合わせたり書き換えたりする必要があります。生成したいイメージを文章で入力すると、画像を生成するためのプロンプトを自動で作成してくれるウェブアプリで、どういう文字列の組み合わせが良いのか思い浮かばず、検索が難しい場合でも簡単にプロンプトを用意することが可能です。 MagicPrompt Stable Diffusion - a Hugging Face Space by Gustavosta https://huggingface.co/spaces/Gustavosta/MagicProm
「イナズマイレブン」「レイトン教授」シリーズなどで知られるゲーム会社・レベルファイブが、ゲーム開発やプロモーション業務で生成AIを活用していることが分かった。政府が12月11日に開催した「AI時代の知的財産権検討会」に同社が提出した資料から判明した。資料では、生成AIの活用例を複数紹介している。 同社は画像生成AI「Stable Diffusion」を活用しているという。例えば、24年に発売予定のゲーム「メガトン級ムサシW」では、タイトル画面のレイアウト案をAIで複数生成し、それを参考に世界観に合ったイラストを作成。イラストをベースに映像も作成し、タイトル画面に使ったとしている。 「妖怪ウォッチ」シリーズの例では、主人公・天野景太の3Dモデルのイメージ画像を作成する際の例を紹介。過去の作品で使った画像をAIに複数学習させ、さまざまな質感の画像を出力。目指す雰囲気を伝えるのに使ったという。ま
サガシモノカモ @sagashimonokamo 1年前、艦隊これくしょんのプロンプトで出力してるとえびふりゃさん(@ ebihurya332)のサインが出てくるという噂があった。 その時はプロンプトの指定で出てくるという話だったが。 今になってV3で検証、10回やって全部出てきた。 昔は読めなかったIDも鮮明に読めるようになった。 やってるねえ pic.twitter.com/ORu3bXk5Kr 2023-12-17 18:02:57 サガシモノカモ @sagashimonokamo 強調{}が問題であるという意見があったので補足。 無くても出ます。 10回出力して全てに再現されました。 サインを書かれている絵師様なら別の方でも再現可能です。 サインは10枚の内鮮明なものを参照。 プロンプト 1girl,ebifurya,kantai collection ネガティブプロンプト 無し
このところ暇さえあれば画像生成AIを使っていろいろな画像を出力することにハマっているムラリンです。私が主に使っているのはMidjourneyなのですが、こうした画像生成AIを触りはじめた人が、誰でも一度はチャレンジするお題に、「自分の似顔絵やアバターを作る」というテーマがあります。 絵画や色鉛筆画のような肖像画であればさほど難しくはないのですが、ほとんどの人が求めているのがアニメのようなタッチの似顔絵です。ところが、実のところAIにアニメタッチの自分の求める似顔絵を吐き出させるのはそれほど簡単ではなく、たいていは残念な結果が出力されるかまったく似ないかで挫折することになります。たぶん、この記事に目を止めてくいただいた方の中にも、そういった方が多くいらっしゃるのではないかと思いますが、今回はそんな方たちのために、いくつかアニメ調の似顔絵キャラクターを作成する方法をご紹介したいと思います。 も
無料の作画AIモデル「Stable Diffusion」(ステーブル・ディフュージョン)が8月23日に公開されてから、1週間分の記憶はほぼない。次に気がついたのは、1週間後の8月30日の午前3時だった。 プログラミングに集中するといつもこうなる。その後まで含めて十数日間、ほとんどベッドで寝た記憶がない。 振り返れば8月23日、たまたま夜中に目が覚めてしまったのがまずかった。その直後にStable Diffusionが全世界に向けて公開され、どれほどの実力なのか確かめてやろうと、試しにプログラミング言語Pythonのコンソール(端末)を起動してしまった。 2時間後、朝日が昇る頃には、「日本語で言葉を入力すると、自動的に英語に翻訳して投入する」無名のWebサービスを立ち上げていた。 そこから怒濤(どとう)の日々が始まった。 「Stable Diffusion」にハマって身の上に起こったこと
Stability AIは7月27日、待望の新たな画像生成AIモデル「Stable Diffusion XL 1.0(SDXL 1.0)」を公開した。 Stability AIが運営するAIウェブアプリ「Clipdrop」で試用できるようになっているが、Stable Diffusionの標準的なUIとなっているAUTOMATIC1111氏の「Stable Diffusion web UI」がさっそくSDXLに対応したとのことなので環境を構築してみた。 SDXL 1.0の詳細については速報記事を参照してもらうとして、一応機能的な面だけおさらいしておくと……。 標準画像解像度はこれまでの倍にあたる1024×1024ピクセル。2つのモデルを併用する仕組みになっており、まず3.5B(35億)パラメーターの「ベース(Base)」モデルで一度128×128ピクセルで生成した画像を、6.6B(66億)パ
画像生成AIの開発を手掛けるAIベンチャー・AI Picasso(東京都港区)は9月9日、学習に対する透明性が高い画像生成AI「CommonArt β」を公開した。学習には、改変などの許可がある画像データのみを使用。著作権への配慮を徹底したという。日本語に対応しており、商用利用もできる。 学習に使ったのは、「改変が許されるライセンスを持つ」「改変しても商用利用可能である」「ライセンスを変更しても良い」の3つの条件を満たす画像。この条件を満たすクリエイティブ・コモンズライセンス「CC BY 4.0」と「CC0 1.0」の画像を原則として学習用データに使い、CommonArt βに学習させた。これにより、著作物を勝手に改変したり、改変したものを勝手に販売したりすることがないようにしたという。 学習用の画像には、複数の学習用テキストを付けるなどして、学習した画像をそのまま表示しないように対応。著
Stable Diffusionの衝撃 つい先週「Midjourney」というAIによる画像生成AIを紹介しましたが、Stable Diffusionという超新星が登場いたしました。 何が凄いかというと、オープンにモデルが公開されているので、誰でもこのモデルを改変したり、モデルを使用したアプリが作れるのです。詳しくは、以下の深津さんのnote記事を参照ください。 さすらいAIプログラマーのshi3zさんは、既に日本語で誰でも無料で手軽に使えるWebアプリを公開されています。 サーバー代めちゃくちゃかかっているけど、自腹でやり続けるそうです。凄すぎです。上記記事のshi3zさんのYouTube動画から、shi3zさんの熱狂が伝わってきます。 Stable DiffusionをWebアプリ的に手軽に使えるツールを作成しました。 思えば、私もディープラーニングおじさんも、AIにハマった大きなきっ
Adobeが2023年6月8日に、独自のジェネレーティブAIを企業など法人向けに提供する「Adobe Firefly エンタープライズ版」を発表しました。Fireflyは、Adobeが権利を保有する画像やパブリックドメインの画像など著作権的にクリアな画像のみでトレーニングされており、Adobeは「Fireflyで画像を作った企業が権利侵害で訴訟を起こされた場合には法的に補償する」としています。 アドビ、「Adobe Firefly エンタープライズ版」を発表 https://www.adobe.com/jp/news-room/news/202306/20230608_firely-and-express-to-enterprises.html Adobe will cover any legal bills around generative AI copyright issues ht
サインアップに必要なのはアカウントのみで、カード情報などは不要だ。生成したコンテンツについてはMidjourneyに「複製、派生作品の作成、公開表示、公開実行、サブライセンス、および配布するための、永続的、全世界的、非独占的、サブライセンス可能、無償、ロイヤリティフリー、取消不能の著作権ライセンスを付与」することになる。(利用規約より) Webアプリ版はまだテスト中で、編集機能も最近利用可能になったばかりだが、立ち上げ段階ではDiscordのアカウントが必要だったものが不要になった分、かなり敷居が低くなった。 関連記事 米著作権当局、生成AI「Midjourney」で制作した優勝作品の著作権保護を拒否 米著作権局審査委員会は、生成AI「Midjourney」で制作した作品の著作権保護を拒否した。対象は、昨年9月にコンテストで優勝した「Theatre D'opera Spatial」。 AI
2022年8月に高精度な画像生成AI「Stable Diffusion」が公開された途端、一部のユーザーはポルノ画像の生成に利用する方法を探り始めました。Stable Diffusionを利用した高精度な18禁ポルノ画像の生成を目指すコミュニティ「Unstable Diffusion」について、テクノロジー系メディアのTechCrunchが報じています。 Meet Unstable Diffusion, the group trying to monetize AI porn generators | TechCrunch https://techcrunch.com/2022/11/17/meet-unstable-diffusion-the-group-trying-to-monetize-ai-porn-generators/ AI開発スタートアップのStability AIによって
その結果が以下。 https://i.imgur.com/UBzZTBy.jpeg このラフがしっかり仕上げされる形になってて本当にびっくりした。 ここまで来るのに環境構築も含めて5時間もかかってない。 軽く自己紹介すると、ワイはお絵描きが趣味でIT系の仕事をしとる人間や。 最近のTwitter上のオタク界隈はAI絵の炎上が絶えない。 Stable Diffusion は出たての頃にちょっと触ってみたんやけど、何百枚も生成して使える絵は片手で数えるほどだったという印象があってそのあとはあまり真面目に技術を追いかけとらんかった。しかし最近の炎上を見てて、技術的にどこまで可能でどこからが不可能になるのか確認したくなり、もう一度環境構築からやり直すことにしたんや。 Stable Diffusion の WebUI の Docker 版を入れて、イラストに特化したモデルを入れて、VAEで画像のボヤ
画像生成AIのStable Diffusionはテキストを入力して指示を出すことで画像を生成できますが、テキストだけだと自分の望み通りの絵を生成するのはなかなか難しいもの。「Scribble Diffusion」は、ブラウザ上で描いた落書きとテキスト入力から自分の希望に近い絵をStable Diffusionで生成することが可能で、動作デモをブラウザから試すことが可能です。 Scribble Diffusion https://scribblediffusion.com/ このScribble Diffusionは、プロンプトとして画像の構図や深度情報などを追加で与えるためのニューラルネットワーク「ControlNet」を応用しています。ControlNetを使うとどういう画像が生成できるのかについては、以下の記事を読むとよくわかります。 ポーズや構図を指定してサクッと好みのイラスト画像を
ドイツのスタートアップ「Black Forest Labs(BFL)」が、8月1日(現地時間)に画像生成AI「FLUX.1」を発表しました。Stability AIの最新モデル「Stable Diffusion 3(SD3)」を超える性能をアピールしており、開発者はStability AIの出身者たち。Stable Diffusionのビジネスモデル設計の失敗から学んだ新しい提案方法でのプランの提示、さらには、14日には、X(旧Twitter)のAI機能の「Grok」の画像生成機能として搭載されました。Stability AIにとってはかつてないほどに強力なライバルが出現した格好で、画像生成AIの勢力図が塗り変わろうとしています。 いきなり約45億円の資金を調達した大型AIスタートアップ Black Forest Labが、シード投資でいきなり3100万ドル(約45億円)相当の資金を調達し
2019年に、FacebookがAIでプロフィール画像を合成した偽アカウントを削除したと発表したことが報道されるなど、AIは以前からソーシャルメディアの頭痛の種でしたが、これまでAI画像を見破るのは難しいことではありませんでした。ところが、リアルな画像を大量に出力できる生成AIの発達により、かつて予言されていた「生成AIが大量生産したゴミコンテンツが生身の人間の努力を圧倒する」という未来が既に現実のものとなっていると、IT系ニュースサイトの404 Mediaが報じました。 Facebook Is Being Overrun With Stolen, AI-Generated Images That People Think Are Real https://www.404media.co/facebook-is-being-overrun-with-stolen-ai-generated-
Stable Diffusionなどの画像生成AIは作品制作のアイデア出しや素材出力に非常に便利です。無料で公開されているPhotoshopプラグイン「Auto-Photoshop-StableDiffusion-Plugin」を使えば、Stable Diffusionで生成した画像を即座にPhotoshop上で編集できるとのことなので、実際にAuto-Photoshop-StableDiffusion-Pluginをインストールする手順や使い方を確認してみました。 GitHub - AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin: A user-friendly plug-in that makes it easy to generate stable diffusion images inside Photoshop usin
“非親告罪化”にさまざまな意見 この署名ページを巡っては、漫画家の森川ジョージさん(@WANPOWANWAN)が同署名に賛同してほしいと自身のXアカウントに投稿。「漫画やイラスト作画の近い将来のツールとして使用できるものを大変な労力で作っている技術者もいます。その人達のためにも必要なことだと思います」と説明していた。 一方で森川さんは、具体案として記載のある「AI生成物に関してのみ、親告罪ではなく非親告罪とする法律」に関しては「非親告罪はどうかと思う」と異を唱えている。親告罪とは、告訴がなければ起訴されない罪を指す。例えば、著作権侵害罪は現状一部を除き親告罪となっているが、もし全て非親告罪となれば、著作権者ではない人たちも違反者を訴えることが可能になる。 X上でもこの部分について、さまざまな意見が上がっている「非親告罪化したら、二次創作はもちろんネットの拾い画像も全部しょっ引けて焼け野原に
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 英Imperial College London(ICL)の研究チームが発表した論文「DALL-E-Bot: Introducing Web-Scale Diffusion Models to Robotics」は、テキスト入力に応じて自動生成した画像を目標に、ロボットが動いて物体を再配置するシステムを提案した研究報告だ。 ロボットに搭載するカメラが現状を撮影し、その画像をもとに自然言語によるプロンプトを作成してText-to-imageモデルに入力すると人間のように配置、整列させた新しい画像を生成できる。ロボットはその画像をゴールにアームを動かし物体をつかんで移動させる。例えば、お皿、ナ
Stable Diffusionなどの画像生成AIに、特定の画像や画風を特定の単語に圧縮してAIに指示することで、自分の生成したい画像を任意の画像によく似せる「最適化」が可能です。テル・アビブ大学のコンピューター科学者であるリノン・ガル氏らのチームが、たった1枚の画像と5~15ステップの調整で画像の最適化を実現する方法を発表しました。 [2302.12228] Designing an Encoder for Fast Personalization of Text-to-Image Models https://doi.org/10.48550/arXiv.2302.12228 Encoder-based Domain Tuning for Fast Personalization of Text-to-Image Models https://tuning-encoder.github
Microsoftの検索エンジンであるBingには、画像生成AIを用いた「Bing イメージクリエーター」という機能があります。この画像生成AI機能では暴力・テロリズム・ヘイトスピーチなどに関するプロンプトが利用できないようにブロックされており、Bing イメージクリエイターの使用に関するポリシーでもこれらのコンテンツの作成は明確に禁じられています。しかし、ユーザーはBing イメージクリエーターを使って禁止されているはずのコンテンツを簡単に作成することができており、もはや人間の制御できる範疇を逸脱してしまっていると、メディアが指摘しました。 Bing Is Generating Images of SpongeBob Doing 9/11 https://www.404media.co/bing-is-generating-images-of-spongebob-doing-9-11/
GW中の連続企画として、画像生成AI「Midjourney」を使ったAIイラスト制作TIPS記事をお届けしています。また、5月2日には、これに関連した生放送企画も実施しましたが、ご覧いただけたでしょうか? こちらの放送では、本連載企画の第1回と第2回で取り上げた、「Midjourney」の始め方の紹介と、「Midjourney」を使った似顔絵制作に実際にチャレンジしているのですが、放送時間の制約もあり、時間内にできあがったアスキー編集部つばさの似顔絵がちょっと微妙な感じでした。 そこで今回は、引き続き、あのとき例題として利用した写真を使って、もうちょっと本人に似るまで試行錯誤を繰り返したら、どんな結果になるのか、を、その試行錯誤の過程と共にお届けしたいと思います。生放送を未視聴の方は、動画の後半部分、48分20秒ころからの映像を見てから、本稿をお読みいただけるとさらに楽しめると思いますので
Rootport💰🍹🍑 @rootport 画像生成AIで「LoRAを階層マージして自分の独自checkpointを作る」とか「ControlNetを駆使して実写映像をアニメ化する」とかやっているレベルの人なら、AIはPhotoshopやblenderに次ぐ「新しい創作ツール」だ……という感覚に納得できると思う。けれど、 2023-06-07 12:03:47 Rootport💰🍹🍑 @rootport そこまでAI沼に浸かっていない世間一般の認識は「馬に乗った宇宙飛行士と命じたら馬に乗った宇宙飛行士が描けた」という単純なtxt2imgの技術のレベルで止まっているんじゃないか。AIで画像を生成するのは、海辺で綺麗な流木を探すのと同じようなもの。創作活動とは呼べない……という感覚。 2023-06-07 12:06:02
文章を入力するだけで好みの画像を生成してくれるAI「Stable Diffusion」は、2022年8月に一般公開されて以降大きな注目を集めており、PCに簡単にインストールできるGUIアプリや低スペックPCでも問題なく使える手法などが続々と編み出されています。しかし、Stable Diffusionでは英語の文章を入力する必要があり、英語が苦手な人には取っつきにくく感じます。参考画像から「画像を説明する英文」を簡単に検索できるシステム「clip-retrieval」を使えばStable Diffusionに入力する英文を一発で取得可能なので、使い方をまとめてみました。 GitHub - rom1504/clip-retrieval: Easily compute clip embeddings and build a clip retrieval system with them http
Stable Diffusionを使う際、いわゆるモデル(チェックポイント)だけで画像生成することは不可能ではないがとても難しいので、多くの人がなんらかのUI(ユーザーインターフェース)を利用している。 この連載でも「Stable Diffusion web UI(AUTOMATIC1111版)」と「Fooocus」を紹介してきたが、実はもうひとつポピュラーなUIがある。それが今回紹介する「ComfyUI」だ。 もちろん筆者も以前からその存在は知っていたが、他のUIとは一線を画す、ノードベースと呼ばれるグニャグニャと矢印が絡まるまるでモジュラーシンセのような独特な形状に「きっとめちゃめちゃ難しいに違いない」とビビって見て見ぬふりをしていた。 結論を先に書くと難しいなんてことはなく、むしろ直感的に処理の流れがわかってめちゃくちゃわかりやすかったので、今後はこちらをメインに使っていくまであるか
入力した文章(プロンプト)に沿って画像を生成してくれるAI「Stable Diffusion」は、モデルデータが一般公開されていることから多くの人にカスタマイズを施されています。そんなStable Diffusionのモデルを調整して、文章を入力するだけで楽曲を生成してくれるAI「Riffusion」が開発されました。 Riffusion https://www.riffusion.com/ Riffusionの開発チームは、誰でも簡単にRiffusionを利用できるようにしたウェブアプリを公開しています。ウェブアプリにアクセスすると、画面右側に「post-teen pop talent show winner(賞を勝ち取った10代のアーティスト)」というプロンプトが表示されます。楽曲を再生するには、画面右上の再生ボタンをクリックすればOK。 再生ボタンをクリックすると、画面左側の図形が上
6月12日、Stability AIの画像生成AI「Stable Diffusion 3 Medium(SD3M)」が公開されました。Stability AIは安定的な収益につながるビジネスモデルの構築に課題を抱えており、最新シリーズ「Stable Diffusion 3(SD3)」をどう位置づけるかが生命線と思われます。そこで、有料APIの使用が必須という形で性能の高い「Stable Diffusion 3 Large(SD3L)」を先行リリースしていました。SD3を「オープン化する」とX上で発言していた創業者のEmad Mostaque氏が4月にCEOを退任したことで約束は守られるのか……とも危惧されてきました。結果としてStability AIは、品質を落としたSD3Mを出すという判断をしてきました。しかし、SD3Mはライティングに高い表現力を持つ一方、意図的に落とされた品質に大きな
突然だが、上記はこの連載の第2回の冒頭部分だ。連載をはじめた当初は右も左もわからない状態だったので「Stable DiffusionはMacでは使えない」と断言してしまった。思い出すたびに冷や汗が出る。 とはいえご存知の通りStable Diffusionを動かすのにNVIDIAビデオカード搭載のWindows機が向いているのは事実なので、これまではすべて新規購入したゲーミングPCで作業することになんの不満も感じていない。 だが、前回紹介したStable DiffusionのUI環境のインストールや更新がワンクリックで可能になる「Stability Matrix」を使えば、PythonやPipのバージョンといった難しいことを考えなくてもMacで画像生成環境を作れるのではないかと考えた。 お詫びから7ヵ月、ずいぶん遅くなったがようやく伏線回収である。 Stability MatrixでM1
量子科学技術研究開発機構(QST)などの研究チームは30日、生成AI(人工知能)を活用して、頭の中で思い描いた画像をある程度まで復元することに世界で初めて成功したと発表した。成果は同日付の国際専門誌「ニューラルネットワークス」に掲載された。 脳の活動から画像を復元する研究はこれまでもあった。しかし従来は、実際に画像を見ている時の脳活動からの復元や、顔や文字、簡単な図形など種類を特定した上での復元に限られていた。今回の成果は、風景や複雑な図形など思い浮かべたあらゆる画像の復元が可能という。 研究チームはまず、被験者に1200枚のさまざまな画像を見せ、機能的磁気共鳴画像化装置(fMRI)で各画像を見ている際の脳活動を記録した。一方で、AIにもこれらの画像を認識させ、色や形、質感など約613万の指標からなる「採点表」を作成。脳活動の記録と採点表を照合させ、新たな脳活動の記録を入力すれば新たな採点
米シカゴ大学に所属する研究者らが発表した論文「GLAZE: Protecting Artists from Style Mimicry by Text-to-Image Models」は、テキストから画像を生成する拡散モデルにおいて、絵に仕込んだノイズで学習後のモデルを騙し、作風を模倣した絵を出力させない技術を提案した研究報告である。学習される前に自分で描いた絵に敵対的な摂動を仕込むことで、学習されてもモデルの出力が誤った画像になるという。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容 keyboard_arrow_down 評価結果 StableDiffusionやMidJourneyなどのテキストから画像を生成する拡散モデルの登場は、アート業界を一変させ、根底から覆した。以前はプロのアーティストが何時間もかけて描いていたような、驚く
promptに何をすればいい? midjourneyやStable Diffusionである画像生成AIのキーワードの生成フォームです。チェックボックスを選んでGenerateボタンをクリックすると、Promptにコピペできる呪文を生成します。便利に使ってください。 プロンプトをカンマで区切る ON テンプレ呪文 人の顔など、すぐに作れない要素を詰め合わせたテンプレート呪文です。 なし 人の顔再現(human face head hair forehead temple face nose cheek mouth lips ear jaw smile) 人の全身(human face head hair forehead temple face eye eyebrow eyelash eyelid eyeball iris cornea nose cheek mouth lips ear
ミーチューは2014年2月にZIGの社名で設立。かつてVTuberプロダクション「OPEN BETA」を運営していた。21年6月にミーチューへと社名を変更し、ファンコミュニティープラットフォーム「Mechu」を提供している。Mechuは、VTuberのファンクラブの他、JR東日本と共同で鉄道ファン向けの「撮り鉄コミュニティ」などにも利用されている。 関連記事 議事録をWebサイトで誤公開 個人情報含む約2000件が外部スタッフのミスで流出 クリエイター向けファンコミュニティーサービスを提供するミーチューは、外部スタッフのミスにより、個人情報が書かれた社内の議事録1962件を、公式Webサイト上で誤って公開していたと発表した。 JR東「撮り鉄コミュニティ」好調な滑り出し あえてイメージの悪い言葉を使った理由は? JR東日本が11月10日に開設した「撮り鉄コミュニティ」が、登録開始から1日で3
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く