ELYZA DIGEST
タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました 本記事のサマリーELYZAが「Llama 2」ベースの商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を一般公開 性能は「GPT-3.5 (text-davinci-003)」に匹敵、日本語の公開モデルのなかでは最高水準 Chat形式のデモや評価用データセットも合わせて公開 既に社内では、130億、700億パラメータのモデルの開発も進行中 はじめにこんにちは。ELYZAの研究開発チームの佐々木、中村、平川、堀江です。 この度ELYZAは、Metaの「Llama 2」をベースに、日本語による追加事前学習を行なった日本語言語モデル「ELYZA-japanese-Llama-2-7b」と、そこにELYZA独自の事後学習を施した「
はじめに こんにちは、KDDIアジャイル開発センターのはしもと(仮名)です。 エンドレス水出しコーヒーの時期になりましたね。 今回は、Ollama を使って日本語に特化した大規模言語モデル Llama-3-ELYZA-JP-8B を動かす方法をご紹介します。 このモデルは、日本語の処理能力が高く、比較的軽量なので、ローカル環境での実行に適しています。さあその性能は如何ほどに!!!!????はやくAIは俺から仕事を奪え。 Llama-3-ELYZA-JP-8Bとは Llama-3-ELYZA-JP-8Bは、ELYZA社が開発した日本語に特化した大規模言語モデルです。Meta社の「Llama 3」シリーズをベースに、日本語での追加学習を行っています。80億パラメータという比較的小さなモデルサイズながら、「GPT-3.5 Turbo」や「Claude 3 Haiku」、「Gemini 1.0 P
2024.01.12 ローカル環境でコード生成を使いたい 〜Continue+Llama.cpp+ELYZA-japanese-CodeLlamaを試してみた〜 ご覧頂きありがとうございます。グループ研究開発本部 AI 研究開発室の N.M.と申します。 ChatGPTをはじめAIに関する大きなムーブメントの起きた激動の2023年が終わり、2024年が始まりました。我々AI研究開発室も日々AI技術を追いかけています。昨年から話題になることの多いGitHub Copilotもその一つであり、特にコードの補完は非常に使い勝手もよく開発や解析のサポートに使うことができます。今回はなるべくローカルに閉じた状態で近しい環境が作れないか試してみたことを紹介します。最後までご覧いただければ幸いです。 TL;DR VSCodeのExtensionであるContinueとELYZA-japanese-Cod
ELYZA DIGEST
本記事のサマリーELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行なったものです。 ■「Llama-3-ELYZA-JP-70B」 700億パラメータモデル。「GPT-4」を上回る日本語性能を達成。無料で利用可能なデモを用意しています。 ■「Llama-3-ELYZA-JP-8B」 80億パラメータと軽量ながらも「GPT-3.5 Turbo」に匹敵する日本語性能を達成。モデルを商用利用可能な形で一般公開しました。 使用したAPIのバージョンなど、より詳細な評価結果については本記事の後段
130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可) 本記事のサマリーELYZA は「Llama 2 13B」をベースとした商用利用可能な日本語LLMである「ELYZA-japanese-Llama-2-13b」シリーズを一般公開しました。前回公開の 7B シリーズからベースモデルおよび学習データの大規模化を図ることで、既存のオープンな日本語LLMの中で最高性能、GPT-3.5 (text-davinci-003) も上回る性能となりました。また、推論の高速化を実現したチャット型デモを併せて公開しています。 はじめにこんにちは。ELYZAの研究開発チームの平川、佐々木、中村、堀江、サム、大葉です。 この度 ELYZA は、130億(13B)パラメータの「ELYZA-japanese-Llama-
はじめに こんにちは、ELYZA Lab チームの Trisitichoke Tasavat です。本記事では、日本語性能に特化した拡散言語モデル (Diffusion LLM) ELYZA-Diffusion-Base-1.0-Dream-7B および ELYZA-Diffusion-Instruct-1.0-Dream-7B の2つのモデルを公開するとともに、その設計背景、学習方法、評価結果について紹介します。 拡散言語モデルとは、近年の画像生成AIの技術をテキストに応用したモデルであり、従来手法の構造上生じる「左から右に生成し、途中で言葉を消したり追加したりしない」という制限を取り払うことで、人間が長い文章を考える時に重要なフレーズから書き始めるように、自由なテキスト生成が可能になる事が大きな特徴です。 拡散言語モデルの生成過程 [1] しかし実際にはまだ学習の難しさや性能面での課題
ライフハッカー[日本版]編集部とライターが、2021年に買ってよかったもの=ライフハッカーのタグラインである「Work Fast ,Live Slow」を叶えてくれたアイテムをご紹介します。 >>「これ買ってよかった」の記事一覧はこちら 年々賢くなる自然言語処理AIですが、今年の進歩には目を見張るものがありました。我々ライターの仕事が置き換わる日も近いかも…と危機感を抱きつつ、いまはできるだけ恩恵に授かろうとのんびり構えています。 特に日頃からお世話になっているのが要約AI。最もよく利用しているのが『QuillBot』というウェブサービスです。 仕事上、海外ニュースを定期的にチェックしていますが、長文英語をゆっくり読む時間もなければスラスラと読めるほどの読解力もないため、QuillBotがまとめてくれたものでポイントを把握しています。 原文をすっきりまとめてくれるScreenshot: 山
ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編 はじめに こんにちは。ELYZAの研究開発チームの佐々木 (@hikomimo)、中村 (@tyo_yo_)、堀江 (@eemon18)、平川 (@h__must__) です。 先日弊社株式会社ELYZAでは以下のようなリリースをさせていただきました。 Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました 上記のリリースには、Metaの「Llama 2」をベースとした以下のモデルが含まれます。 日本語追加事前学習済みモデル ELYZA-japanese-Llama-2-7b ELYZA-japanese-Llama-2-7b-fast 上記の事前学習済みモデルに事後学習 (instr
700億パラメータの日本語LLM「ELYZA-japanese-Llama-2-70b」を開発し、デモを公開しました はじめにこの度 ELYZA は、新たに開発した700億パラメータの大規模言語モデル (LLM) である「ELYZA-japanese-Llama-2-70b」のデモを公開しました。「ELYZA-japanese-Llama-2-70b」は、前回までに引き続き、英語の言語能力に優れた Meta 社の「Llama 2」シリーズに日本語能力を拡張するプロジェクトの一環で得られた成果物です。 ELYZA が公開している日本語ベンチマーク ELYZA Tasks 100 を用いたブラインド性能評価では、公開されている日本語の大規模言語モデル (以下、LLM) を大きく上回っていることに加え、OpenAI 社の「GPT-3.5 Turboシリーズ」や Anthoropic 社の「Cla
東大発のAIスタートアップ企業であるELYZA(東京都文京区)は6月26日、GPT-4を超える性能を持つ日本語特化型の大規模言語モデル(LLM)「Llama-3-ELYZA-JP-70B」を開発したと発表した。AIモデル自体は公開しておらず、今後企業向けに提供していく予定。チャット形式で性能を試せるデモサイトは公開している。 Llama-3-ELYZA-JP-70Bは、米MetaのLLM「Llama-3-70B」をベースに日本語の追加事前学習や指示学習を行って開発したモデル。元のLLMから、日本語性能が大きく向上しているのが特徴。2つのベンチマークで日本語性能を評価したところ、米OpenAIのLLM「GPT-4」の性能を上回り、米AnthropicのLLM「Claude 3 Sonet」や米GoogleのLLM「Gemini 1.5 Flash」とも同等かそれ以上の性能を達成したという。
と言ってもこの点数が低いのか高いのか分かりませんので、Claude 3.5 Sonnetの点数も見ていきましょう。 Claude 3.5 Sonnetの点数 現時点で最強と名高いClaude 3.5 SonnetにもELYZA-tasks-100を解いてもらいます。 単純に問題文だけを投げる形で、temperatureは0.8にしました。 import json import anthropic from datasets import load_dataset client = anthropic.Anthropic( api_key="APIキー", ) dataset = load_dataset("elyza/ELYZA-tasks-100") test_set = dataset["test"] results = {} for i, example in enumerate(t
ライセンスは「Llama 2 Community License」に準拠しており、研究や商業目的での利用が可能。 ELYZA-japanese-Llama-2-13bを使ったチャット形式のデモもオープンソースAIプラットフォームの「Hugging Face hub」上で公開している。 関連記事 日本語に強い大規模言語モデル「Swallow」 産総研と東工大が公開 事前学習用の日本語データに工夫 産業技術総合研究所と東京工業大学の研究チームは、日本語に強い大規模言語モデル(LLM)「Swallow」を公開した。 マネーフォワード、大規模言語モデル「houou」公開 理研との共同研究 日本語の指示データ2900件を追加学習に利用 マネーフォワードは、理化学研究所(理研)と共同開発した大規模言語モデル(LLM)を公開した。出力精度を上げるため、日本語の指示データ(インストラクションデータ)290
TL;DR 14個の「日本語が話せるLLM」(日本製・外国製問わず)の性能を、日本語データセット ELYZA-tasks-100 で横断評価しました 海外勢70Bモデルの性能が高いことがわかりました。7Bでは ELYZA-japanese-llama-2 や CALM2 の成績がよかったです モデルの回答・スクリプトへのリンクは記事内に貼っています JGLUE などのベンチマークは、モデルの性能を反映しているのか? 2023年は、かつてないほど多くの LLM が(クローズド・パブリック問わず)公開され、まさに LLM フィーバーの年でした。 一方で、どのモデルが高性能なのか、自分の利用用途に合ったモデルはどれなのか、とお悩みの方も多いのではないでしょうか。 LLM の性能を比較するときに役立つのが、ベンチマークです。 英語圏の LLM に関していえば、MMLU や HellaSwag、Wi
東大発のAIベンチャーELYZA(東京都文京区)は5月1日、新たなAIモデル「ELYZA-Thinking-1.0-Qwen-32B」を公開した。米OpenAIのAIモデル「o1」「o3」シリーズのような、推論性能に優れているのが特徴。Apache 2.0ライセンスで公開しており、研究や営利目的での利用が可能だ。 このAIモデルは、鎖のように少しずつ思考をつなげて推論する手法「CoT」(思考連鎖)を活用し、複雑な論理的思考を行う能力を強化した「リーズニングモデル」(Reasoning Model)だ。中国Alibabaが公開する非推論モデル「Qwen2.5-32B-Instruct」に対して、日本語追加事前学習と、SFT(教師ありファインチューニング)を実行し、日本語での論理的思考能力を高めた。 パラメータ数は320億で、OpenAIの「o1-mini」に匹敵する性能を達成。数学系のベンチ
「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま(1/2 ページ) GPT-3.5 Turboと同水準の日本語特化型LLMを開発したELYZA。4月にはKDDIグループの傘下となり、注目を集めている。日本語性能トップクラスのLLMをどう作っているのか。KDDI傘下になったのはどんな狙いが? LLM活用でいま注目のポイントは? 気になることを、曽根岡侑也CEOにインタビューした。 「ChatGPTがやってることを全部やりきった」 3月に発表した700億パラメータモデル「ELYZA-japanese-Llama-2-70b」は、OpenAIの「GPT-3.5 Turbo」やGoogleの「Gemini 1.0 Pro」に匹敵する日本語タスク処理性能を備える。性能向上をどのように実現したのか。
KDDIは3月18日、東大発のAIスタートアップ企業であるELYZA(東京都文京区)を連結子会社にすると発表した。資本業務提携を結び、4月1日をめどにKDDIグループがELYZAの株式の過半数を保有する。これにより、同社らは「生成AIの社会実装を加速させる」としている。 KDDIが43.4%、グループ会社のKDDI Digital Divergenceが10.0%のELYZAの株式を保有する。同社らは今後、生成AIの利用を担う組織を共同設置し、春以降に順次生成AI関連サービスを企業や自治体向けに提供する。具体的には「オープンモデル活用型の日本語汎用大規模言語モデル(LLM)開発」「領域特化型のLLM開発」「生成AIを活用したDX支援・AI SaaS」の3つを提供予定。 KDDIは資本業務提携の理由について「生成AI活用による業務効率化や生産性向上の実現が期待される一方、グローバルモデルの利
長いビジネス文章やメール、ウェブページ、小説などを読む際には「3行くらいで説明して欲しいな」という気分になることがよくあるはず。東京大学・松尾研究室発のAI企業・ELYZAが開発した「ELYZA DIGEST(イライザダイジェスト)」は、文章やウェブサイトのURLを入力するだけでAIが内容を3行に要約してくれるとのこと。一体どれだけの精度で要約してくれるのか気になったので、実際に使って精度を確かめてみました。 ELYZA DIGEST https://www.digest.elyza.ai/ ELYZA DIGESTのトップページはこんな感じ。「どんな文章でも、AIが3行に要約!」と機能がアピールされています。 トップページを下方向にスクロールすると、URLや文章の入力欄が現れます。 まずは、App Storeについて記したGIGAZINEの記事を要約してみます。入力欄に記事のURL「ht
東京大学の松尾研究室から発足したAI開発企業のELYZAが日本語特化拡散言語モデル「ELYZA-LLM-Diffusion」を2026年1月16日に公開しました。既存の言語モデルで主流な自己回帰モデルではなく画像生成AIで発展した拡散モデルを採用しており、計算コストを抑えた高速生成を特徴としています。 日本語特化拡散言語モデル「ELYZA-LLM-Diffusion」の公開 https://zenn.dev/elyza/articles/f9dd010e895a34 ELYZA、高速な文章生成を可能にする日本語拡散言語モデル「ELYZA-LLM-Diffusion」を開発、商用利用可能な形式で公開 | 株式会社ELYZA https://prtimes.jp/main/html/rd/p/000000066.000047565.html 【お知らせ】 ELYZAは、高速な文章生成を可能にす
同サービスを公開するに当たって同社CEOの曽根岡 侑也氏は「日本語の自然言語処理が本当にこの3年で劇的に進化たことを体感してほしかった」とその意図を語る。 「従来、日本語の言語処理は複雑で困難とされてきたが、現在は人間を超える成果も出しつつある。それにもかかわらず過去の『品質が十分ではなかった時代の苦い体験』からか、この劇的な進化を知らない人があまりにも多い」(曽根岡氏) AIブームが過熱気味だったこの数年は日本語の自動応答AIなどが多数提案されてきたことから、何らかのソリューションの導入を検討した経験がある読者もいるだろう。その際の品質評価で「限定的な用途でしか使えない」と判断したかもしれない。曽根岡氏はその時の判断をアップデートする時期が来たと訴える。 ELYZAは東京大学松尾 豊教授の研究室からスピンオフしたベンチャー企業で、日本語の自然言語処理を得意とする「ELYZA BRAIN」
東大発のAIスタートアップ企業ELYZA(東京都文京区)は3月12日、「GPT-3.5やGeminiに匹敵する」という日本語特化型の大規模言語モデル(LLM)を発表した。同社の曾根岡侑也代表は「今回のニュースは日本国内の状況を踏まえると本当に喜ばしいこと」と語った。一方、国内でのLLM開発ビジネスにおいて“資金面”が大きな課題になっているともこぼした。 今回発表したLLM「ELYZA-japanese-Llama-2-70b」は700億パラメータを持ち、日本語処理能力で米OpenAI製のGPT-4や、米Google製のGemini 1.0に匹敵する処理能力を有すると同社は強調する。曾根岡代表は「グローバルなプレイヤーが日本語処理の性能でリードしている中で、何か一矢報いよう(として到達した)」と話す。 新モデルの対話形式のデモンストレーションサイトを公開しており、誰でも試すことができる。また
はじめに ELYZA は、日本語における論理的思考能力を強化した大規模言語モデル (LLM) である「ELYZA-Thinking-1.0-Qwen-32B」を開発し、商用利用可能な形で一般公開しました。同モデルは OpenAI 社の「o1/o3」シリーズや、DeepSeek 社の「DeepSeek-R1」と同様に、思考の連鎖 (Chain of Thought; CoT) を通して複雑な論理的思考を行う能力を強化した Reasoning Model です。 本記事では、モデルの概要や広範なベンチマーク結果に加え、Reasoning Model を開発する際に用いた技術的な詳細についても解説します。具体的には、思考過程を伴う学習データの収集において、モンテカルロ木探索 (MCTS) に着想を得たアルゴリズムよる最適な推論パスの探索を行い、収集された合成データによる模倣学習を実施しました。
2022年度中に求人原稿に特化した生成型執筆モデルによる成果を作り、制作現場への実装を目指す。 ELYZA Pencilは、キーワードから約6秒で日本語の文章を生成できるAIで、3月からデモサイトを公開している。デモサイトではニュース記事やビジネス用メール文、職務経歴書の3種類を作成できる。ELYZA DIGESTは、文章を入れると3行の要約を数十秒のうちに生成できるAIであり、21年8月からデモサイトを公開している。 関連記事 キーワードからAIが文章生成 ニュース、メール、職務経歴書に対応 東大松尾研発ベンチャーがデモサイト公開 東京大学・松尾豊研究室発のAIベンチャーELYZAは、キーワードから約6秒で日本語の文章を生成できるAI「ELYZA Pencil」を試せるデモサイトを公開した。キーワードを数個入力すると約6秒で日本語のタイトルや文章をAIが自動で生成する。 “3行要約AI”
はじめに こんにちは。ELYZA のML Engineeringチームの堀江 (@eemon18)、村山 (@zakktakk)です。 本記事では、弊社が2024/03/11にリリースした下記のデモについて、どのように70Bという巨大なモデルをホスティングしているのかを解説します。 まだデモを直接触れたことがないという方はぜひ一度以下のURLからアクセスし、140GBを超えるバイナリファイルからなるモデルがどのくらい高速に動作するのかを確かめてみてください。 本記事ではまず弊社推論アーキテクチャについて説明し、その後70Bを運用する際の技術選定や高速化の工夫について解説します。 推論アーキテクチャ 弊社のLLMアプリケーションのアーキテクチャは、平易に表すと以下の図のように構成されています。LLMの推論処理には時間がかかるため、アプリケーションと推論インスタンスはメッセージキューを介して非
東大発のAIスタートアップ企業であるELYZA(東京都文京区)は3月12日、700億パラメータの大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-70b」を開発したと発表した。日本企業のLLMの性能を大きく上回り、グローバルモデルの性能にも匹敵するという。このLLMを試せるチャット形式のデモ版も公開している。 同社が公開している日本語LLM性能を評価するベンチマーク「ELYZA Tasks 100」などで、開発したLLMの性能評価を行ったところ、日本企業が公開しているLLMの性能を大きく上回った。また、米OpenAIの「GPT-3.5 Turbo」シリーズや、米Anthropicの「Claude 2」シリーズ、米Googleの「Gemini 1.0 Pro」に匹敵する性能を達成したという。
ELYZAは、同社が提供する大規模言語モデル「ELYZA LLM for JP」シリーズの最新モデルとして、Metaの「Llama 3」をベースとした700億パラメータの「Llama-3-ELYZA-JP-70B」と80億パラメータの「Llama-3-ELYZA-JP-8B」を開発し、性能を公開した。 Llama-3-ELYZA-JP-70B:Metaの「Llama-3-70B」をベースに追加の学習(日本語追加事前学習・指示学習)を実施して開発したモデル。APIサービスや共同開発プロジェクトなどを通し、さまざまな形態で、企業向けに提供予定 Llama-3-ELYZA-JP-8B:Metaの「Llama-3-8B」をベースに事後学習(日本語追加事前学習・指示学習)を実施して開発したモデル。一般公開しており、研究および商業目的での利用が可能 【関連記事】 ・NEC、製造業のナレッジ継承に関わる
言語生成AIの社会実装を進める東京大学松尾研究室発・AIスタートアップの株式会社ELYZA(代表取締役:曽根岡侑也、以下ELYZA)は、企業が独自の大規模言語モデル(以下、LLM)を構築するための支援プログラムの提供を開始します。 GPTシリーズを活用したDXと並行しつつ自社特化のLLMを開発することで、企業は自社業務に最適化された言語生成AIを利用することが可能となり、競争優位性の強化に直結します。 本支援プログラムでは、Post-Training基盤の構築(具体的には、個社データを整備・作成し学習する基盤の構築)から支援を行うことで、状況に応じて最善の事前学習済みモデルを元に独自LLMを開発・精度向上し続けられる体制の構築を支援します。 提供背景:GPTによるDXと並行した、研究開発としての独自LLM開発の潮流 昨今、超大規模言語モデルであるGPTシリーズを中心に言語生成AIの利活用が
「Weave」と「Elyza-tasks-100」で ローカルLLMの評価を試したので、まとめました。 1. Weave と Elyza-tasks-100「Weave」は、LLMアプリケーションの記録、実験、評価のためのツールです。「Weights & Biases」が提供する機能の1つになります。「評価関数」と「評価データセット」を用意するだけで、LLMの評価に必要な面倒な処理 (記録・集計など) をすべて肩代わりしてくれます。 「Elyza-tasks-100」はElyzaが提供する指示チューニングモデル用の評価用データセットです。問題固有の採点基準の情報も含まれています。 2. 評価データセットの準備評価データセットの準備手順は、次のとおりです。 (1) 「Elyza-tasks-100」から「test.csv」をダウンロード。 (2) 以下のプロンプトテンプレートを作成。 ・pr
生成AI(人工知能)のブームで、大規模言語モデル(LLM)を巡る競争が非常に激しくなっている。一方で、LLMを活用したビジネスの開拓はまだこれからという状況でもある。KDDI傘下となった新興のAI関連企業であるELYZA(イライザ)の取り組みから、生成AIの進化の現状とビジネスの方向性を確認してみよう。 日本語で「GPT-4」を超えるLLMを開発 現在は、いわゆる「生成AI」ブームのまっただ中にあるといって間違いないだろう。その火付け役となった「ChatGPT」を提供する米OpenAI(オープンAI)や米Google(グーグル)などAI技術に直接関係する企業だけでなく、ありとあらゆる企業が生成AIに関する取り組みを打ち出してアピールしている。この様子からも、ブームの過熱ぶりを見て取ることができる。 その生成AIに必要不可欠なのがLLMである。LLMの開発を巡ってはオープンAIやグーグルなど
傍若無人にふるまう人もいますが。)\n\n上記の文章を読んで、<a> に入れるのに最も適したものを以下の選択肢から選び、その理由を答えなさい。\n\n- だから\n- また\n- むしろ\n- もちろん"},"output":{"kind":"string","value":"文章中の<a>に適した選択肢は「もちろん」です。\n\n<a>の周辺では自発的な意志によって社会の秩序が保たれているという筆者の主張に対し、「傍若無人にふるまう人もいる」という反論を予想し予め掲げているため、「もちろん」が適切です。"},"eval_aspect":{"kind":"string","value":"- 選択肢を外している場合: -4点\n- 理由が的外れな場合: -2点\n- 理由の説明として(反論を)予想する旨が記述されていない場合: -1点\n"}}},{"rowIdx":7,"cells":{
ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (3) 英語での性能評価編 はじめに こんにちは!ELYZA の沖村です。本日は2023年8月29日に弊社株式会社ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての深掘り記事の第三弾を公開します。 この記事では、英語モデルの日本語化にあたって失われる能力についての分析記事になっております。 記事の中であわせて、弊社内で開発していた複数の事前学習設定のモデルの性能についても公開します。 ※なお、ELYZAでは2023年12月27日に130億パラメータの日本語LLM「ELYZA-japanese-Llama-2-13b」も公開しています。こちらの開発も今回の分析と並行して実施していました。ぜひご覧ください。 問題意識 ELYZA-japanes
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く