個人で色々とWEBサービスつくっている大学生です。とりあえずwebサービスで生きていけるように頑張っています。
Swiss army knife for Debian repository management Aptly allows you to mirror remote repositories, manage local package repositories, take snapshots, pull new versions of packages along with dependencies, publish as Debian repository. You can try it right now for free, aptly is available both as CLI tool and HTTP REST service.
LOVOTはCanonical Ltd.の許諾を受けて Ubuntuを使用しています。 LOVOT、周辺機器およびLOVOTアプリのソフトウェアには、オープンソースソフトウェアが含まれています。これらのオープンソースソフトウェアには、当社所定の使用許諾契約書に代えて、それぞれのオープンソースソフトウェアに該当するライセンス条件が適用されます。かかるオープンソースソフトウェアのライセンス条件、著作権表示、その他詳細なライセンス情報については、 https://github.com/groove-x/licenses をご覧下さい。 これらのオープンソースソフトウェアの一部にはGPL/LGPLに基づきライセンスされるソフトウェアが含まれており、 これらのソフトウェアのソースコードについて、お客様は、 GPL/LGPLの定めに従い、入手、改変、再配布の権利があることをお知らせします。かかるソース
こんにちは LOVOT の OS を作っているチームのひとり id:atotto です。 LOVOT の OS について、簡単ですがお話させていただきます。 LOVOTとNest(LOVOT ANATOMY より一部抜粋) 早速ですが、かわいらしい LOVOT には、x86系のCPU(メインコンピュータ)、そして、ARM系のCPU(サブコンピュータ)の2つが搭載されています。これだけでも OS の管理が難しいのですが、LOVOT の製品には Nest (巣: 充電ステーション)の x86系のCPU(エッジコンピュータ)もあり、合計 3つの独立した OS が存在しています。(詳しいspecはこちら) 複雑ですね。この複雑さに立ち向かうために、私達が工夫していることをご紹介したいと思います。 名前をつける みなさん、自分たちの OS に名前をつけていますか? 私達は、 LOVOT の製品に使っ
ここは、Martin Fowler's Blikiの日本語翻訳サイトです。Martin Fowler氏本人の許可を得て公開しています。データはGitHubで管理していますので、どなたでも翻訳に参加することが可能です。 ※現在、移行中につき、Markdown形式になっていないものが多々あります……。PRいただけると大変ありがたいです。 API design / agile / agile adoption / agile history / application architecture / application integration / bad things / build scripting / certification / clean code / collaboration / computer history / conferences / continuous deliv
日本人の3人に1人は日本語が読めない? 集団ですぐれた意思決定をするための条件は、人種、民族、国籍、宗教、性別、性的指向などが異なるメンバーを集める多様性と、その全員が一定以上の能力をもっていることだ。このふたつの条件を満たすと、多様な意見が「化学反応」を起こし、とてつもないイノベーションが生まれる可能性がある。 ところが、自然に生まれる集団ではこれとは逆のことが起こる。 ひとは生得的に、自分と似た者に惹かれる性質があるので、アメリカのような多文化社会では、人種や民族、宗教ごとにコミュニティがつくられるが、知能や学力で選別するようなことはない。知識社会は産業革命以降に成立したので、そんなグループ分けをする本能は脳に埋め込まれていない。だからこそ有名大学やシリコンバレーのIT企業は、人為的な方法(入学試験や高報酬)で能力の高い者だけを集めているのだ。 その結果わたしたちは、なんの多様性もなく
アイドルグループ「ワンスアチャンス」のメンバーでセクシー俳優の西元めいささんが11月30日にInstagramストーリーズを更新。検査で“そばアレルギーが治っていた”と訴え、人生初のそばを食べたことで緊急搬送されていたことを明かしました。 西元さん(画像は西元めいさ 公式Instagramから) 23歳の西元さんは「人生初! 蕎麦!!!!」と、生まれて初めてそばを食したことを報告。「想像していた蕎麦と違かった!!」と興奮しながら感想をつづり、これまで食べられなかった理由として「3才の時に旅館で蕎麦粉が入った物を食べてアナフィラキシーショックを起こして心肺停止してから避けてた」とアレルギーで重篤な状態に陥ったためと伝えました。 そばを食べる様子を公開していた(画像は西元めいさ 公式Instagramストーリーズから) 人生初挑戦に踏み切った理由を「先日アレルギー検査したら治ってました」と端的
同性どうしの結婚が認められていないのは憲法に違反するとして、東京に住む同性のカップルなどが国に賠償を求めた裁判で、東京地方裁判所は「同性パートナーと家族になるための法制度が存在しないことは、個人の尊厳と両性の本質的平等を定めた憲法に違反する状態だ」と指摘しました。 一方で、「法制度の構築は立法の裁量に委ねられている」として、憲法には違反しないと結論づけ、訴えを退けました。 東京に住む同性のカップルなど8人は、同性どうしの結婚を認めていない民法などの規定は憲法に違反するとして、国に賠償を求めました。 30日の判決で、東京地方裁判所の池原桃子裁判長は、「婚姻によってパートナーと家族になり、法的な保護を受ける利益は個人の尊厳に関わる重要な利益で、男女の夫婦と変わらない生活を送る同性カップルにとっても同様だ」と述べました。 そのうえで、「同性パートナーと家族になるための法制度が存在しないことは、同
ドン・キホーテなどを運営するパン・パシフィック・インターナショナルホールディングス(PPIH)は12月3日、前社長の大原孝治氏が東京地方検察庁により金融商品取引法に違反した疑いがあるとして逮捕されたことを受け、コメントを発表した。前社長が逮捕されたことは「極めて遺憾」であり、「深くお詫び申し上げます」と謝罪した。 大原氏は2019年9月25日付でPPIHの取締役を退任しただけでなく、グループの全役職も辞任している。 同社は、今回の件について「(大原氏)個人に対する被疑事実であり、これまでの当局による調査の過程において、現在当社に在籍する全ての役職員及び元役職員の本件への関与は一切認められていない」としている。 報道によると、大原氏は株価に大きく影響する事案を公表する前に、知人に対して株を購入するよう勧めていた容疑が持たれている。 関連記事 スーパーの「アピタ」と「ピアゴ」がどんどん“ドンキ
『週刊ダイヤモンド』特別レポート ダイヤモンド編集部による取材レポートと編集部厳選の特別寄稿を掲載。『週刊ダイヤモンド』と連動した様々なテーマで、経済・世相の「いま」を掘り下げていきます。 バックナンバー一覧 12月3日、ドンキホーテホールディングス(HD、現パン・パシフィック・インターナショナルHD)前社長の大原孝治氏が東京地検特捜部に逮捕された。当時、上場企業のトップだった人物が、公表前の内部情報を基に知人へ自社株の購入を勧めた金融商品取引法違反の疑いで逮捕されるという、異例の事態だ。その大原氏を後継者に指名した創業者の安田隆夫氏は退任直前、2015年の「週刊ダイヤモンド」の中で後進に対して“手紙”を送っていた。「道半ばの私の夢の襷は、君に託した」――。ドンキ創業者が後継直前に送った「ラストメッセージ」を再掲載する。(ダイヤモンド編集部 大矢博之)
大原 孝治(おおはら こうじ、1963年8月23日 - )は、日本の実業家。株式会社オーベロンホールディングス創業会長、株式会社オーベロンマーケティング創業会長。 パン・パシフィック・インターナショナルホールディングス(PPIH)代表取締役社長、ドン・キホーテ代表取締役社長など、PPIHグループの代表を歴任。 東京都出身。 1993年 - ドン・キホーテへ入社。第一号店となる府中店のコーナー担当者を経て、木更津店・幕張店・市原店の立ち上げの店長を務める。 1995年 - 取締役第二営業本部長。 2005年 - リアリット社長。 2009年 - 日本商業施設社長。 2012年 - ドン・キホーテシェアードサービス社長。 2013年 - ドン・キホーテ社長、ドンキホーテホールディングス(ドンキHD、現パン・パシフィック・インターナショナルホールディングス)副社長。 2014年 - ドンキHD社
","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"
こんにちは、品川です。Vision Transformer入門という本の執筆に参加しました。いよいよ本格的な販売がはじまります。どんな本なのか注目してくださってる方もいらっしゃると思うので、著者陣の一人の視点から執筆の背景と書評を少しだけ書こうと思います。 gihyo.jp 執筆の背景 書評 第1章 TransformerからVision Transformerへの進化 第2章 Vision Transformerの基礎と実装 第3章 実験と可視化によるVision Transformerの探求 第4章 コンピュータビジョンタスクへの応用 第5章 Vision and Languageタスクへの応用 第6章 Vision Transformerの派生手法 第7章 Transformerの謎を読み解く 第8章 Vision Transformerの謎を読み解く 手薄になっている内容 執筆の背
はじめに 事前準備 実装の概要 環境音合成実験 実験条件 実験結果 実装の舞台裏など おわりに はじめに 以前、Onoma-to-Waveを実装した記事を書いたことがあった: tam5917.hatenablog.com Onoma-to-Waveとはオノマトペ(文字列)を環境音(スペクトログラム)に変換するモデルである。RNNに基づくencoderとdecoderから構成されており、いわゆるSequence-to-Sequence(Seq2Seq)の構造を持つ。 それらをTransformerによって置き換えたモデルが、Onoma-to-Waveの著者らによって実はすでに提案されている。 岡本 悠希,井本 桂右,高道 慎之介,福森 隆寛,山下 洋一,"Transformerを用いたオノマトペからの環境音合成," 日本音響学会2021年秋季研究発表会,pp. 943-946,2021. 上
著者のManu Suryavansh氏は機械学習エンジニアとしてキャリアを積んだ後、2020年1月からAppleでデータサイエンティストとして勤めています。同氏がMediumに投稿した記事『2019年はBERTとTransformerの年だった』では、近年の自然言語処理の動向がBERTを中心軸としてまとめられています。 TransformerとBERTが発表される以前の自然言語処理モデルでは、時系列データを処理するRNNとその発展形であるLSTMが使われてきました。このLSTMには、構造が複雑になってしまうという欠点がありました。こうしたなか、2017年6月に発表された論文「Attentionこそ必要なすべてのもの」で論じられた言語モデルTransformerとAttentionと呼ばれる手法は、LSTMのような複雑な構造を使わずに高性能を実現したのでその後の言語モデル開発に大きな影響を与
2. Transformer の構造と本研究のまとめ • Transformer は Layer Normalization (LN) の位置で2種に⼤別される 2 Post-LN Pre-LN Residual 後に Layer Norm 本研究の貢献 ・Post-LN と Pre-LN の性能差を実験的に⽰す ・多層 Post-LN の学習が難しい原因を⽰す ・⾼い性能を維持しつつ多層化する⼿法を提案 性能 多層化 Post-LN ○ × Pre-LN × ○ B2T(提案⼿法) ○ ○ × N × N Layer Norm Attention FFN Layer Norm Layer Norm Attention FFN Layer Norm Layer Norm Attention × N × N Attention Layer Norm Layer Norm FFN Layer
Amazon Prime 一ヶ月無料 Seq2seqからBERTまでのNLPモデルの歴史をざっとまとめる。 DNNは知ってるけどTransformerってなんだかわからない、って人におすすめです。 Abst. 画像認識にもTransformerが使われることが多く、DeepRLやGPT-3といったNLPモデルも身近になってきています。"Attention is 何?"と言えなくなってきたので勉強しました。 Feedforward NetworksからSeq2Seq, Attention機構からTransformer登場、そしてBERT GPTといった最新モデルまでの流れを広く浅く記述する予定。 またKaggle NLPコンペの上位解法から利用例を探る。 Tl;DR TransformerはSelf-Attentionという機構でデータ内の時系列的特徴を抽出でき、従来のRNNを始めとするNN
〜AIが名曲を生み出す〜 この音楽を聴いてみてください。 See the Pen MusicTransformerDemo by NayuSato (@nayusato) on CodePen. 埋め込みが見られない場合はここ これはGoogleの自動作曲Music Transformerが生み出した曲の1つです。 入力は、最初の6秒だけ。 クラシックのドビュッシー「月の光」の冒頭6秒だけを与えて、その続きを全て作らせるというタスクを行わせています。 十分聴き入って感動できるような曲に仕上がっています。 ケチをつけられる点がないとは言わないけれど、「人の作った曲です」と言われても識別できないほどの精度になっています。 「Music Transformer」 2018年Googleが発表した自動作曲のAI。 自然言語処理のアルゴリズムであるTransformerを音楽に適用することにより、そ
はじめまして。9月初旬より約半月にわたり、AIエンジニアコースのインターンに参加させていただいた清水と申します。大学院は情報系の専攻で、最近は幾何学的な深層学習に関する研究に取り組んでいます。その過程で言語的なタスクを出口に用いることも多く、副次的に深層学習を利用した自然言語処理にも多少明るかったりします。 題目にあるTransformerとは、そうした分野にてここ数年にわかに注目を集めている仕組みの名です。自然言語処理の最先端研究ではまず流用されないことなどない、いわば伝家の宝刀レベルのモデルといってよいでしょう。 本記事ではこれを『逆転オセロニア』というゲームのデッキ編成に特化させ、現行手法よりも表現力に富んだ編成システムを実現した経緯についてお話しできればと思います。『日進月歩で強力になっていく機械学習手法の恩恵に与りたいけれど、所望の問題設定にドンピシャな手法なんてそうそうなくて思
4. NLPからVision and Language、CVへ 4 論文が最初に発表された年月 2017 2018 2019 2020 2021 Transformer 出現 事前学習モデ ルの提案 マルチモーダル化 CVタスクへの 応用 2017/06 Transformer 2018/06 GPT-1 2018/10 BERT 2019/08 ViLBERT LXMERT VLBERT 2020/05 DETR 2020/10 ViT 2021/02 TimeSformer 1 Transformer の躍進 5. NLPからVision and Language、CVへ 5 最近はCV、Vision and Languageへの応用が激化 サーベイ論文も立て続けに登場 2020/12/23 A Survey on Visual Transformer (2020) https://a
こんにちは。ミクシィ AI ロボット事業部でしゃべるロボットを作っているインコです。 この記事は ミクシィグループ Advent Calendar 2018 の5日目の記事です。 この記事の目的 この記事では2018年現在 DeepLearning における自然言語処理のデファクトスタンダードとなりつつある Transformer を作ることで、 Attention ベースのネットワークを理解することを目的とします。 機械翻訳などの Transformer, 自然言語理解の BERT やその他多くの現在 SoTA となっている自然言語処理のモデルは Attention ベースのモデルです。 Attention を理解することが今後の自然言語処理 x Deep Learning の必須になってくるのではないでしょうか。 この記事にかかれているコード (Github) 歴史 - RNN から
対象読者 こんな人に向いてます Transformerを知らない人 私も全く知らずに調べました!なんにもわからない人の目線で書きます! 想定される疑問を載せてます! 多層パーセプトロンは知っているけど、それ以降出てきたいろんな用語についていけなくなった人 いつも知らない言葉を含んだ図ばかりで結局詳細がよくわからないって思っている人 図に式も載せて式を見ればやっていることがわかるようにしました! 結局解説サイトを読んでもどう動くかわからない人 実際に軽いデータでTransformerを動かしてみたい人 軽く動かせるNotebookを用意してます! ミスがあればご指摘くださると幸いです。 自然言語処理で大活躍している手法。 機械翻訳 テキスト要約 文章生成 文書カテゴリの分類 最近では、画像データやテーブルデータ(時系列データ)でも活躍しているようだ。 画像認識の大革命。AI界で話題爆発中の「
ブログデータが対話精度向上に|HyperCLOVAの開発の裏側 ーー日本語圏では前例も少ない大規模汎用言語モデルを開発する上で苦労した点はありましたか? 英語や韓国語のノウハウが日本語のモデルに直接使えないところが大変でした。 モデルの構築は、67億、130億、390億とパラメータを小さいサイズから順番に積み上げています。130億の時、精度がガクンと落ちてしまったんですが、データを整えるなどの試行錯誤をしていくと390億の時に突き抜けて高くなったんですね。 このように、宝探しやハッカソンのように実際に試してみないとわからないことがとても多く、そのうえ、1回の試行錯誤に2週間〜1ヶ月必要だったのが大変でした。 またコーパス作りも大変でした。モデルを学習させるデータは基本的には権利関係を明確にしながら、法律面だけでなく感情面的なところにも深く配慮してコーパスを作りました。 ーー学習させたデータ
3. どうやってモデルを比較したのか 上記の比較結果を出すために、 LMDiff というツールを利用しました。 トークナイザーが一致している二つの言語モデル(gpt系やbert系)と、テキストのデータセットをこのツールに入力することで、簡単に比較を行うことができます。 このツールには二種類の分析手法があります。 一つ目が、データセットレベルでの分析手法です。複数の文章を対象にモデルを比較することで、特に予測結果の差が大きかった文を確認することができます。 二つ目が、文レベルでの分析手法です。一つの文を対象にモデルを比較することで、特に予測結果の差が大きかったトークンを確認することができます。 以下の章で、分析手法の詳細について説明します。 データセットレベルでの分析 一つ目は、複数の文章から構成されるデータセットを元に、二つのモデルの性能を比較する手法です。 文章中の各文に対する、二つのモ
こんにちは、メルカリの検索チームで機械学習エンジニアとしてインターンをしていた塚越駿 ( @hpp_ricecake ) です。インターンでは、メルカリのログデータと言語モデルを用いて同義語辞書を自動構築するというタスクに取り組みました。 メルカリではすでに同義語辞書を用いた検索システムの改善が行われていますが、定期的なアップデートに課題が存在したため、今回は日々自動で蓄積される検索クエリと商品データから自動で辞書を構築できる手法を実装しました。本記事では、その結果についてご紹介いたします。 同義語辞書について 同義語(synonym)とは、ある語に対して、表層的には異なるものの本質的に同じものを表している語のことを表します。検索システムを構築するにあたって、適切な同義語辞書を用いれば検索システムの再現率(recall)を向上させることができるため、質の高い同義語辞書を整備することは非常に
昨今、AIの性能は一段と進化を遂げています。 もとより頻繁に話題となるAIですが、現在は何をどこまでできるようになっているかご存知ですか? AIによる高度な翻訳技術「DeepL」や、人間を超越した最強の将棋AI、もしくはAIが大学入試に挑む「東ロボくん」プロジェクトなど、何らかの事例を小耳に挟んだことはあるのではないでしょうか。 その後もAI技術は急速に進化しています。 2022年4月、またしても興味深い成果がGoogleから発表されました。 それが、文章のジョークを理解するAIです。 これを実現させたのが、Pathways Language Model (以下、PaLM)と呼ばれる、5400億パラメータからなる新たな言語モデルです。 論文はGoogleにより、2022年4月5日付けでプレプリントサーバー『arXiv』上に公開されています。
Googleは世界大規模のAI言語モデル「PaLM」を開発した。AI言語モデルとは言葉を理解するシステムで、規模が大きくなるにつれ、言語機能が向上することが分かっている。Googleが開発した巨大モデルは、言葉を理解する機能に加え、推論機能、プログラムをコーディングする機能でブレークスルーを達成した。 PaLMとは Googleは、2022年4月、世界大規模のAI言語モデル「Pathways Language Model (PaLM)」を公開した。AIの規模はパラメータの数で示され、PaLMは540B(5400億)個で、Microsoft・Nvidia連合が開発した「Turing NLG」の530B(5300億)個を上回り、トップの座を奪った。AI言語モデルはニューラルネットワークの規模が大きくなるにつれ、言語機能が向上することが分かっているが、PaLMでもこの事象が示された。PaLMは、
Metaは大規模なAI言語モデル「Open Pretrained Transformer (OPT-175B)」を開発し、これを無償で提供することを明らかにした。世界の研究者は、最先端のAIを自由に使うことができ、これにより自然言語解析の研究が進むことが期待される。AIモデルは、その規模が拡大すると、アルゴリズムが新たなスキルを習得することが知られている。同時に、アルゴリズムが内包する危険性が増大し、社会に甚大な被害を及ぼすことが問題となっている。Metaはオープンサイエンスの手法で研究を進め、AIの危険性を解明することを目指している。 OPT-175Bとは Metaが開発したOPT-175Bとは大規模な言語モデルで、自然言語解析(Natural Language Processing)と呼ばれる言葉を理解する機能を持つ。OPT-175BはTransformerベースの言語モデルで、Met
George Anadiotis (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子 2022-05-12 06:30 統計によって理解度を定量化できるのだろうか。人工知能(AI)は倫理基準を満たしているのだろうか。いずれの疑問も表面的には同じくらい奇妙なものであり、その答えは同じくらいに明らかだ。しかし、AIのハイプが高まる中、この種の疑問は折に触れて何度も投げかけられるだろう。その答えを探る上で最先端の研究が助けとなるはずだ。 AI言語モデルと人間による選別 Gary N. Smith氏はMind Mattersへの投稿記事で、AI研究者らは数十年前に、極めて柔軟な人間の知性を模倣するコンピューターを構築するという目標をおおむね放棄し、有益な(つまり利益につながる)アルゴリズムを作り上げたと述べている。その上で、このような回り道が無理からぬものだったにもかかわ
最近ではニューラルネットを使った言語モデルがよく用いられていますが,N-gram言語モデルをいまさら実装し,いまどきKneser-Neyスムージングで遊んで知見を深めようという気持ちの記事です.せっかくなので,「Basic English」や「やさしい日本語」よりもかんたんで,単語が120語しかないミニマリズム言語トキポナの言語モデルを作成し,その挙動を観察します. (この記事と同じ実装をgithubで公開しています https://github.com/nymwa/knlm ) N-gram 言語モデル 言語モデルとは,単語の列の出現確率を与える確率モデルです.単語列 $a_1, a_2, a_3, \cdots, a_n$ の確率を $$p(a_1, a_2, a_3, \cdots, a_n)$$ として計算します.言語モデルは,「ことば」を確率で表したモデルと言うことができます.
検索エンジンや配車サービスなど幅広い事業を手がけて「ロシアのGoogle」とも呼ばれるロシア最大のインターネット企業・Yandexが、1000億ものパラメーターを持つ大規模言語モデル「YaLM 100B」をオープンソースで公開しました。Yandexは「YaLM 100B」について、商用利用可能なオープンソースの言語モデルとして史上最大のものだと主張しています。 Yandex Publishes YaLM 100B. It’s the Largest GPT-Like Neural Network in Open Source | by Mikhail Khrushchev | Yandex | Jun, 2022 | Medium https://medium.com/yandex/yandex-publishes-yalm-100b-its-the-largest-gpt-like-ne
Timothy John BaldwinProfessor, Associate Provost and Acting Head of the NLP Department of Mohamed Bin Zayed University of Artificial intelligence 近年,「事前学習済み言語モデル」の普及により,自然言語処理モデルの精度と汎用性が大幅に向上している。簡単に言うと,言語モデルは文脈の中で単語が出現する確率を予測するモデルである。例えば,“The baby emerged from its mother’s pouch. (赤ちゃん は母親のおなかの袋から出てきた)”という文において, を埋める単語として言語モデルは“kangaroo (カンガルー)”や“koala (コアラ)”に高い確率で割り当て,“kangaroos (カンガルー複数形)”,“ele
1.はじめに 社内勉強会で発表することになり、題材としてrinna/japanese-gpt-1bを使用したSlackのAIチャットボットを作成したので、備忘録として残しておきます。 「文章生成機能編」と「SlackBot実装編」で記事を2つに分けており、当記事では文章生成機能について記載します。 初心者なため、間違った部分や理解の足りていない部分もあるかと思います。 そういった部分がありましたらコメントまたはTwitterで指摘して頂けると幸いです。 rinna/japanese-gpt-1bとは 13億パラメータの日本語特化GPT言語モデルです。rinna株式会社がオープンソースで公開しています。 今回はこちらを使用して、文章を生成する機能をbotに実装しています。 サンプルコードとほぼ同じものを使用していますが、相違点もあるためそこも含めて解説していきます。 公式ニュースはこちらです
前編では、各国で開発が進む大規模言語モデルの傾向と、日本語独自の課題をご紹介しました。(https://www.intellilink.co.jp/column/ai/2022/070800.aspx) 後編では、日本語に特化した大規模言語モデルの具体例として、rinna社の日本語GPT言語モデルとLINE社のHyperCLOVAをご紹介します。 1. rinna社の日本語GPT言語モデル Microsoft社のAI&リサーチ部門でAIチャットボットの研究を行っていたチームがスピンアウトして2020年6月に設立したAIキャラクター開発企業であるrinna社※1は、日本語に特化した13億パラメータのGPT言語モデルを公開しました。 (1)背景※1 rinna社はこれまでに、日本語の自然言語処理(NLP)に特化したGPT(3.3億パラメータ)やBERT(1.1億パラメータ)の事前学習モデルを公
Googleは、ロボットが現実世界の複雑さに対処するための驚くべき新たな手法を見つけた。それは、ロボットに言語を理解する方法を教えることだ。 Googleは、親会社Alphabetのロボット事業部門Everyday Robotsのロボットに、言語を扱う最新の人工知能(AI)技術「PaLM」(Pathways Language Modelの略)を組み合わせた。その結果生まれた「PaLM-SayCan」という技術を、米国時間8月16日に公開した。 この技術により、GoogleのAI言語モデルに現実世界に関する知識が十分に組み込まれると、ロボットは人間の曖昧な指示を解釈し、それに応える一連の動作を組み立てられるようになる。これは、自動車の組み立てラインでフロントガラスを取り付けるような厳密に制御された状況で、大部分のロボットが正確にスクリプトで指定された動作に従っているのとは対照的だ。 PaLM
近年における「すごいAI(人工知能)」の代表格である巨大言語モデルが、日本語でも威力を示し始めた。LINEが構築した390億パラメーターの日本語版巨大言語モデル「HyperCLOVA」は、謝罪メール作成や議事録要約、詩や小説の執筆といった様々なタスクで、非常に流ちょうな日本語の文章を生成している。驚くべき能力の一端を紹介しよう。 メール作成や議事録の取りまとめ、コールセンターでの顧客対応などは多くの業種で発生する業務だ。共通するのは必要な情報を理解・抽出し、相手に合わせて端的に伝える能力で、社会人にとって不可欠なビジネススキルといえる。最新の巨大言語モデルは人間のインプットに応じて的確に意図をくみ取り、業務をサポートする存在となりつつある。 箇条書きからビジネスメール文を生成 「いつもお世話になっております。先日は、弊社のミスにより納期の遅延が発生し、大変ご迷惑をおかけいたしました。心より
米グーグルから、注目に値する“すごい”ロボット技術が登場した。 同社が得意とするロボット向け機械学習技術の領域での成果だが、これまで漸進的な進化が続いてきた強化学習や模倣学習といった範疇の技術ではない。それら旧来的な枠組みにとどまるものではなく、家庭やオフィスで使える汎用的なサービスロボット実現に向け、大きな前進となる技術である。細かいミクロな要素技術というよりも、こうした汎用的ロボットを実現するためのマクロなソフトウエアアーキテクチャの面で、今後の革新への萌芽となる成果を今回、出した(図1)。ロボット技術者であれば、決して無視できない成果である。 開発したのは、グーグルのロボット研究部門、および「Everyday Robots」という組織だ。Everyday Robotsは米Alphabet社(グーグルの親会社)傘下の基礎研究組織X Development社で発足したプロジェクトで、グー
前回は、センター試験の英語読解問題に必要となる単語分散表現による単語理解について説明しました。紹介した単語分散表現獲得の例では、決まった範囲の周辺単語から単語分散表現を獲得していました。しかしながら、この方法では1単語で1つの意味しか表現することができず、多義語のように文脈で意味が変化する単語には対応できません。 例えば、「have」という単語は「I have a dog」だと「飼っている」という意味になり「I have breakfast」だと「食べる」という意味になります。多義語は意味ごとに周辺単語の種類も異なるため、それを1つの意味だけで捉えようとするのは困難です。 その解決方法の一つとして、文章に含まれる単語全体を使って単語分散表現を獲得する文脈理解を行います。文章全体を入力として単語分散表現を求めるので、文章ごとに異なる単語分散表現を獲得することができます。 次に紹介する「Tra
※この投稿は米国時間 2022 年 9 月 30 日に、Google Cloud blog に投稿されたものの抄訳です。 昨今では、自然言語理解(NLU)は飛躍的な進歩を遂げ、徐々に複雑な問題を解決できるようになって人工知能に新しい風を吹き込んでいます。たとえば、Everyday Robots は新しい言語モデルを使用して、より便利なロボットを開発しています。このロボットは、ユーザーの指示を理解し、複雑なテキスト入力を想像力に富んだビジュアルに変換することもできます。 このような NLU の進化は、人間の言語を理解するようにトレーニングされたニューラル ネットワークが実現しています。2017 年の Google による Transformer アーキテクチャの導入、GPT-3 などの大量のデータを使用してトレーニングされた大規模モデルの導入、最近では GLaM、LaMDA、PaLM によっ
約45TBの大規模なテキストデータのコーパスを約1750億個のパラメータを使用して学習したOpenAIのニューラルネットワーク言語モデル「GPT-3(Generative Pre-Training-3、以下GPT-3)」は、早ければ今年12月、遅くとも2023年2月までに新たなバージョン「GPT-4」となり、リリースされるとのことだ。 2020年5月の「GPT-3」のリリースは、AIが人間が読んでも自然に見える文章を作成する機能を持ち、世界に衝撃を与えた。その正式な後継者について、今年4月にはOpenAI CEOのSam Altman氏が「GPT-4」を今後数カ月の間に発売することを明らかにしていた。GPT-4によって、AIが、“より人間らしい”自然な会話をするようになり、関連アプリケーションのトレーニングコストが大幅に削減され、人工知能との付き合い方が変わるとされている。 2019年に登
前回が分量的にやたらと重かったので、今回はその反省(反動?)を踏まえて軽い感じでいってみます。第7回で紹介した T5 ですが Hugging Face の Transformers でもサポートされてますので、その使用方法をご紹介したいと思います。 1. はじめに 今回は久しぶりに T5 の話です。T5 に関しては第7回、第8回で一度紹介しているので、未読の方は記事に目を通してから戻ってきて頂けると、より理解がしやすいと思います。 さて、 T5 ですが Google のオリジナルコード(以下 “t5"と記述)1は敷居が高いと感じる方もいらっしゃるのではないでしょうか。 Estimator API ベースのコードや gin による設定など慣れていないと、とっつきにくいのではないかと思います。 そこで今回は Hugging Face の Transformers 2を使って T5 を動かす方法
著者のDale Markowitz氏はGoogleクラウド部門に所属するGoogle社員で、最近ではGoogle主催の開発者会議Google I/O 2021で「機械学習のよくある問題の発見と解決」というセッションを担当しました。同氏がMediumに投稿した記事『Transformer解説:GPT-3、BERT、T5の背後にあるモデルを理解する』では、現代の言語AIにおける技術的基礎となっているモデルのTransformerが数式を使わずに解説されています。 Transformer以前に自然言語処理で使われていたモデルは、リカレントニューラルネットワーク(Recurrent Neural Network:RNN)でした。このモデルには長い文章を正しく処理するのが難しい、勾配消失問題の影響を受けやすい、そして処理の並列化が難しいためにモデルの大規模化が困難、というみっつの欠点があったため、自
","unk_token":"","pad_token":""}},"createdAt":"2022-03-02T23:29:05.000Z","discussionsDisabled":false,"downloads":815,"downloadsAllTime":50025,"id":"megagonlabs/t5-base-japanese-web","isLikedByUser":false,"isWatchedByUser":false,"inference":"not-popular-enough","lastModified":"2021-09-06T10:32:21.000Z","likes":18,"pipeline_tag":"text2text-generation","library_name":"transformers","librariesOther":[
ROUGEと呼ばれるこの指標は要約の自動評価尺度であり、F1値で表されています。また、値が大きい方が精度が良いことを示しています。 ROUGE-Nスコアは正解ラベルの要訳文のN-gramのうちどれくらい出力文のN-gramが一致しているかを示します。 ROUGE-Lスコアは生成した要約文と正解ラベルの要訳文の中で最も長く一致している文字数はどのくらいかを示します。 ROUGEスコアだけ見るとPEGASUSモデルが優れていますが、実際に人間が見た時にどのように感じるでしょうか。 それでは次のセクションで実際に出力を確認してみましょう! 比較 CNBCの記事を使って出力される要約文を比較していきます。 TikTok owner ByteDance takes on Tencent after acquiring major mobile gaming studio また、目視で判断するための参
インターネットの世界にニュースが溢れる昨今、満足度が高いものを的確に読みたいという方も多いかと思います。そのためには、見るニュースをどれにするか判断することが必要になります。そこで、ニュース全体の主旨を短い文章で表す要約の価値が高まっています。 自然言語処理における要約は、大きく2つに分けられます。それは、抽出型と抽象型です。抽出型は、文章の中から重要な文を抜き出すことで要約を作ります。要約として選ばれた文は元の文章にあるものなので、方向性が大きく異ることや誤字脱字がうまれる可能性は低いです。しかし、要約として選ばれた文のそれぞれは関係があるわけではないので、流暢な要約にならないことも多いです。それに対して、抽象型は人間が作るように要約としての文章の流暢さを考慮しながら作ります。本来人間がほしい要約はこちらになりますが、抽出型に比べると難易度が上がり、全く意味がわからない文章になる可能性も
Google AIの新しい言語モデル Flan-T5 を試したので、まとめました。 「Colab 無料版」ではVRAMが足りなかったため、「Colab Pro」の「プレミアム」を使いました。A100 (40GB)で試しています。 1. Flan-T5「Flan-T5」は、Google AI の新しいオープンソース言語モデルです。1,800 以上の言語タスクでファインチューニングされており、プロンプトとマルチステップの推論能力が劇的に向上しています。 以下のモデルが提供されています。 ・Flan-T5 small (80M) ・Flan-T5 base (250M) ・Flan-T5 large (780M) ・Flan-T5 XL (3B) ・Flan-T5 XXL (11B) 会話例は、次のとおりです。 Give reasons before answering. Can you spe
Microsoft、自然言語処理モデルGPT-3がAzureで使える「Azure OpenAI Service」を発表:独占ライセンスに基づき招待制で提供 イーロン・マスク氏らが設立したOpen AIの開発による自然言語処理モデル「GPT-3」を、Microsoftが独占ライセンスの下で、Microsoft Azure のサービスとして提供開始すると発表した。GPT-3は、人間の書いた文章と見分けがつかないほど自然な文章を作成できるとして、注目を集めている。 Microsoftは「文章作成AI」として注目される「GPT-3」を利用できるサービス、「Azure OpenAI Service」を提供開始する。当初は「Invitation Only」、つまり同社が認めた限定的な顧客に対し、招待制で提供する。2021年11月2日(米国時間)、同社カンファレンスMicrosoft Igniteで発表
AIを研究する非営利団体・OpenAIが開発した言語モデルの「GPT-3」は、海外掲示板のRedditで1週間誰にも気付かれずに会話するなど、非常に高い精度の文章を生成することが可能です。GPT-3は間違いなくAIの世界に大きな影響を与えましたが、AI関連メディアのLast Week in AIは、「もはやGPT-3はAI分野における唯一の選択肢ではない」と主張しています。 GPT-3 is No Longer the Only Game in Town - Last Week in AI https://lastweekin.ai/p/gpt-3-is-no-longer-the-only-game 2020年6月に登場したGPT-3は世界中のAI研究者やソフトウェア開発者に刺激を与え、GPT-3について紹介した論文は記事作成時点で2000を超える引用数を獲得しており、OpenAIは20
超高精度な言語モデル「GPT-3」などを開発した研究機関のOpenAIが、プロセスの改善によりGPT-3のウェイトリストを削除し、誰でもAPIを利用可能にしたと発表しました。 OpenAI’s API Now Available with No Waitlist https://openai.com/blog/api-no-waitlist/ OpenAIはテスラの創業者であるイーロン・マスク氏らの手により設立された人工知能(AI)研究企業です。これまでに画像認識AIの「CLIP」や言語モデルのGPT-3の開発を行ってきたほか、GitHubでソースコードの続きを自動補完する「GitHub Copilot」の開発に協力するなどの実績を残してきました。このうち、OpenAIはGPT-3を用いたAPIの利用にウェイトリストを設け、使用者数に制限をかけていました。 OpenAIが超高精度な言語モデ
米AI研究企業のOpenAIは11月19日(現地時間)、大規模自然言語処理モデル「GPT-3」のAPIを利用する際の人数制限を撤廃し、誰でもすぐに利用できるようにしたと発表した。 ガイドラインを更新し、ヘイトスピーチやアダルトコンテンツについては使用を禁止。コンテンツフィルターなど安全装置を設けた上で人数制限を撤廃した。 同社は「何万人もの開発者が、GPT-3を通じてさまざまなAIモデルを活用している。APIへのアクセスを開放することで、より多くの開発者が有用なアプリや未解決な問題に、AIを使った創造的な方法を見つけられると信じている」としている。 GPT-3は、イーロン・マスク氏が共同会長を務める非営利のAI研究企業であるOpenAIが開発した大規模自然言語処理モデル。文章の次の言葉を予測する訓練を重ねており、少ない学習量で人間が書いたような文章を生成できる。関数名やコメントからコードを
GPT-3とは?文章生成で何ができるのか GPT-3は「Generative Pre-trained Transformer - 3」の略で、OpenAIが開発した事前学習済み(Pre-trained)の文章生成型(Generative)の「Transformer」、その3番目のモデルを指します。この「Transformer」というのは自然言語処理向けの深層学習モデルのことで、「畳み込みネットワーク」「回帰的ネットワーク」に代表される機械学習モデルの一種ととらえてください。つまり、GPTはTransformerという学習モデルをベースにして、しっかりと事前学習を行い文章生成を行うようにカスタマイズされたAI(言語モデル)ということになります。 「文章生成を行うAI」と一言で言っても、非常にさまざまな種類があります。例として「質問や問い合わせに答えるもの」「会話を成立させるもの」「自然な文章
著者のAlberto Romero氏はMediumのコントリビューティングライターで、AIの技術的可能性とその批判的検証に関する記事を多数執筆しており、AINOWでもそれらの記事の一部を紹介しています(同氏の経歴はLinkedInを参照)。同氏が2021年9月にMediumで公開した記事『GPT-4は、GPT-3の500倍となる100兆個のパラメータを持つだろう』では、GPT-3の批判的検証とその後継モデルが実現するかも知れない能力が論じられています。 2020年6月にOpenAIが公開した巨大言語AI「GPT-3」は、ヒューマンライクな文章を生成することで世界を驚愕させました。同モデルは、ディープラーニングモデルを巨大化していけば人間の知性と同等なAGI(汎用人工知能)の実現に近づくという「スケーリング仮説」にもとづいて開発されました。 OpenAIがGPT-3をさらに巨大化してGPT-
驚くべき作文能力を持つオープンAI(OpenAI)の「GPT-3」は、モデルの大規模化を競い合いう人工知能(AI)の新トレンドの始まりだった。2021年は新しい言語モデルの構築に多大な労力が注がれたものの、AIはまだGPT-3の影響から抜け出せていない。 by Will Douglas Heaven2021.12.23 9 4 18 2021年は、超大型人工知能(AI)モデルの年だった。 オープンAI(OpenAI)が2020年6月にリリースしたGPT-3は、驚異的な言語把握力を持っていた。説得力のある文章を生成し、人間と会話し、自動補完コードを生成することさえ可能だった。GPT-3の驚異性はその規模にも見られ、これまでに作られたどのニューラル・ネットワークよりも巨大だった。GPT-3は「大きいことは良いことだ」というAIの新トレンドの火つけ役ともなった。 GPT-3には、訓練に使われたオ
米AI研究企業OpenAIは1月27日(現地時間)、自然言語モデル「GPT-3」よりも「ユーザーの意図に従い、より加害性の低い」言語モデル「InstructGPT」をAPIのデフォルト言語モデルとし、提供を開始したと発表した。 GPT-3はインターネット上のデータで学習した文章生成のための言語モデル。かなり自然な文章を生成できることで話題を呼んだ。だが、学習に使うネット上のデータには人種差別的なものや暴力的なものもあるため、一般に望ましくない結果が生成されてしまうこともある。 InstructGPTはそうした問題を解消する目的で改良したGPT。過去1年間のβテストでは、GPT-3と比較して人間の誤った答えを模倣してしまうことが少なく、加害性も低くなっているという。また、人間による評価を行ったところ、InstructGPTの方が幻覚のような創作をする頻度が少なく、より適切な出力が生成されたこ
オープンAIは、人間が書いたような文章を生成できることで話題になった大規模言語モデル「GPT-3」の新バージョンを発表した。ユーザーの指示に従うよう訓練することで、攻撃的な表現やデマを減らせるという。 by Will Douglas Heaven2022.01.31 16 4 10 オープンAI(OpenAI)は、従来の言語モデルの流れを一変させた大規模言語モデル「GPT-3」の新バージョンを開発した。オープンAIによると、この新バージョンでは、GPT-3で課題となっていた有害性のある問題が一部解消されているという。 同社が「インストラクトGPT(InstructGPT)」と呼んでいる最新の言語モデルは、人工知能(AI)の専門用語で「アラインメント」と呼ばれる技術を採用しており、使用する人の指示にうまく従うことができる。そのため、明示的に言われない限り、攻撃的な言葉や誤った情報を生み出すこ
1週間AIとバレずに人間と会話できたという高性能な文章生成AI「GPT-3」がアップデートされ、新たに「文脈」を理解して内容を変化させられるようになりました。この技術はGithub Copilotにも導入されており、後ろの内容を見つつ適切に抜けているコードを埋められるように進化しています。 New GPT-3 Capabilities: Edit & Insert https://openai.com/blog/gpt-3-edit-insert/ GPT-3はこれまで、既存の文章を読んでその続きを書くことが可能でしたが、既に書かれている文章の途中だけを変更することはできませんでした。今回のアップデートでは、GPT-3が文章を生成する際、「末尾に追記」だけでなく「文章中に挿入」することが可能になります。 例えば下の画像は「高校卒業」という目次を元にGPT-3が生成した文章です。GPT-3が
Facebookの運営元、米Meta(メタ)が2022年5月に、米OpenAI(オープンAI)のGPT-3に匹敵する巨大言語モデル「Open Pretrained Transformer(OPT-175B)」を研究者向けに公開した。これまで悪用を恐れて公開していなかった、学習済みモデルやプログラム本体も公開したことがポイントだ。メタの狙いを解説しよう。 メタは2022年5月3日(米国時間)に「Democratizing access to large-scale language models with OPT-175B(OPT-175Bによって大規模言語モデルへのアクセスを民主化する)」と題するブログ記事を投稿し、OPT-175Bの学習済みモデルに加えて、OPT-175Bをトレーニングするためのプログラム一式などを研究者向けに公開したと発表した。 言語モデルとは、自然言語による質問応答や
Alternatively: What's the current status of Personally Identifying Information and language models?I try to hide my real name whenever possible, out of an abundance of caution. You can still find it if you search carefully, but in today's hostile internet I see this kind of soft pseudonymity as my digital personal space, and expect to have it respected. When playing around in GPT-3 I tried making
「Catchy」 Image credit: Digital Recipe 昨年12月、Google スライドや PowerPoint から Web サイトを構築できるサービス「Slideflow」を取り上げたところ話題となったが、これを開発したデジタルレシピ(旧社名 yagocoro)が新たなサービス「Catchy」をローンチした。名前からも少し想像がつくかもしれないが、商品名や商品説明からマーケティングに最適なキャッチコピーを生成してくれるサービスだ。 Catchy は、Elon Musk 氏らも出資する OpenAI が開発する自然言語処理モデル「GPT-3」をベースに作られた AI コピーライティングサービス。キャッチコピーの他にも、商品説明文、新規事業アイデアなど100種類を超えるアウトプットパターンが用意されていて、用途に応じたメッセージを生成することが可能だ。 デジタルレシピ
「GPT-3」は人間と遜色ない文章を生み出し、人間との自然な対話も可能な文章生成AIです。文章作成やコーディングの支援に使われるGPT-3ですが、ソフトウェアエンジニアのマット・ビリュー氏はこれをメール返信時の定型文作成に用い、見事返信の自動化に成功しました。 Responding to recruiter emails with GPT-3 | Matt’s programming blog https://matthewbilyeu.com/blog/2022-09-01/responding-to-recruiter-emails-with-gpt-3 ビリュー氏の下には企業からの求人メールが頻繁に届くそうですが、特に求職中というわけではないビリュー氏はメールの内容にはあまり興味がないそうです。しかし、放っておくと何度もメールを送ってくる企業もあるので、ビリュー氏は逐次確認して返信し
7月のサービス開始から会員数約2万人が利用するAIライティングサービスがある。デジタルレシピ(東京都渋谷区)が運営する「Catchy」は、AIが謝罪文から記事作成まで行うライティングサービスだ。 代表例がキャッチコピーの作成だ。例えば、ITmedia NEWSの説明を入れると、AIが、 ITmedia NEWS:IT関連のニュースや情報をお届けします。 日本や世界の最新ニュースをお届けします。 豊富な情報量で、常に最新の情報を入手できます。 などのキャッチコピー案を作ってくれる。140種類以上にのぼるサービスの中は「TikTok 動画のアイデア」「王道少年漫画の悪役の設定」「HikakinTVっぽいYouTube企画(β版)」などの軽いものから、「AIDA モデル」「プレスリリースのたたき」「Facebook 広告のタイトル」などの実務の参考になるものまで、多様多様だ。 今のAI技術を用い
「無料でGPT-3に匹敵する自然言語処理モデルを利用したい」 「Googleが公開している自然言語処理モデルを試したい」 このような場合には、Flan-T5がオススメです。 この記事では、Flan-T5について解説しています。 本記事の内容 Flan-T5とは?Flan-T5のシステム要件Flan-T5の動作確認 それでは、上記に沿って解説していきます。 Flan-T5とは? Flan-T5を知るには、FLANとT5について知っておく必要があります。 FLANとは、FinetunedLAnguage Netの略称です。 FLANを取り入れることで、ゼロショット学習の効果が向上します。 ゼロショット学習により、未知のことに対応できやすくなります。 つまり、FLANによってモデルの精度が上がるということです。 T5とは、Googleが発表した自然言語処理モデルになります。 Googleは、T5
この1週間はGPT-3のユースケースの広さに驚かされる毎日でした. シリコンバレーでは話題騒然ですが日本ではほとんど話題になっていないので,勢いで書くことにしました. GPT-3はOpenAIが開発した言語生成モデルです.名前の由来であるGenerative Pretrained Transformerの通り,自然言語処理で広く使われるTransformerモデルを言語生成タスクで事前学習しています. 先月申請すれば誰でもGPT-3を利用できるOpenAI APIが発表され,様々な業種の開発者によって驚くべきデモンストレーションがいくつも公開されています. 特に話し言葉からJSXやReactのコードを生成するデモは著名なベンチャーキャピタルから注目を集め,誇大広告気味だと警鐘を鳴らす事態に発展しています. This is mind blowing. With GPT-3, I built
JR秋葉原駅で、エスカレーターに立ち止まって乗っていた高齢の男性に対して「邪魔だ」と言ってトラブルになり、蹴るなどの暴行を加えて大けがを負わせたとして、61歳の容疑者が傷害の疑いで逮捕されました。警視庁の調べに対し容疑を一部否認しているということです。 逮捕されたのは、住居不詳で自称・会社役員の南浩明容疑者(61)です。 警視庁によりますと、ことし1月、JR秋葉原駅のコンコースで、都内の80代の男性に対し、太ももを蹴ったり投げ飛ばしたりするなどの暴行を加えて転倒させ、腰の骨を折る大けがを負わせたとして、傷害の疑いが持たれています。 直前に、容疑者は下りのエスカレーターを歩いて降りていて、立ち止まって乗っていた男性に「邪魔だ」と言って追い越そうとしたところ、男性から「エスカレーターは歩くものではない」と言われ、トラブルになったということです。 調べに対し、「男性を振り回して投げたことは認める
","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 --><!--株価検索 中⑤企画-->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">
このエントリは 10X アドベントカレンダー2022 という企画の1日目(12/1)の記事です。 こんにちは、10Xでエンジニアリングマネージャーをしている 岡野(@operandoOS)です。 今回 10Xで初となるアドベントカレンダー企画の1日目をありがたく担当させていただきます💪 10XはStailer(ステイラー)という、スーパーマーケット・ドラッグストアなどのチェーンストアのオンライン事業立ち上げと成長に必要なすべてを備えたプラットフォームを開発しています。 なので、はじめに最近よく行くスーパーとよく買う商品の紹介をします! 最近よく行くスーパーは西友で、よく買う商品は「みなさまのお墨付き 塩味えだまめ 大容量 700g」です! 10X アドベントカレンダー2022ってなに? 株式会社10Xのメンバーが送る、2022年アドベントカレンダー企画です🎄 🎅 🎍 10xall.
明治大学のリバティタワー、法政大学のボアソナード・タワーなど、都心の超高層ビルをキャンパスとする大学が増えている。 大学がビルというのは味気ないと感じる人がいるかもしれない。だが都心への通学に魅力を感じる学生は多い。ある大学の先生は「うちの経済学部は郊外から都心にキャンパスを移したら偏差値が5も上がったんだよ」と自慢していた。 かつて大学がこぞって郊外にキャンパスを移した時期がある。最後の波は、バブル期前後だった。 僕の通っていたキャンパスも神奈川県藤沢市にあった。正式名称は「湘南藤沢キャンパス」、略してSFCと呼ばれる。もう一つのSFC(スーパーファミコン)と同じ1990年に開設された。「湘南」とあるが、キャンパスは養豚場の匂いが漂う畑の中にあって、まるで海など見えない。パンフレットでは「湘南からの熱い風が吹く」などと、分譲マンションの謳い文句のようなことが書かれていたと記憶する。 土地
社員がパーパスに共感できないことで起こる問題 世古詞一氏(以下、世古):今日は、先ほどみなさんにも出していただきました「社員がパーパスに共感できないことで起こる問題」に絞っていこうと思います。 パーパスがないことで採用が難しいとか、新しい製品が生まれづらいとか、ブランドが毀損されるとか、いろいろあるかもしれません。その中で「社員が」ということで言うと、本当にみなさんがさっき出されたことがすべてだと思います。 やはり働きがいが低下していく。WhyではなくWhatで選ぶようになっているんです。パーパス起点でその会社につながっているのではなく、「業務自体が好きだから」、「なんとなく居心地がいいから」とか、あるいは「報酬が高いから」とか「この人が好きだから」とか、そういうものでつながっているんです。 これ自体は別に悪くはないんですけれども、例えばより報酬の高い会社があったら、すぐその会社に転職しま
useEffect とは何か、ご存知ですか? useEffect? 知ってるよ。 依存配列に入れた値が変更されるたびに関数が実行されるフックでしょ? これは半分正解ですが、半分間違っています。 useEffect のデフォルトの挙動は「レンダーのたびに毎回実行」です。 依存配列は「変わった時に実行する」というより「変わらなければスキップ」と捉えたほうが良いかもしれません。 useEffect は再レンダー以外の変化を検知できません。 特にミュータブルなオブジェクトが絡む場合は注意 React 公式のドキュメントの解説を見ながら、以上の2つのポイントに絞って、誤解を解いていこうと思います。 宣伝 useMemo, useState についても記事を書きました。よかったらこちらも確認してください。 2023/10/03 追記: ブラッシュアップしました ブラッシュアップしたので、そちらの記事も
(Last Updated On: 2021年5月2日) OWASPのガイドラインはPCI DSSでも参照するように指定されているセキュリティガイドラインです。その中でも比較的簡潔かつ体系的にセキュアプログラミングを解説した資料がOWASP Secure Coding Practices – Quick Reference Guide (v2) です。 日本語訳がないようなので一部未訳ですが訳しました。CC-BY-SAライセンスです。クリエイティブコモンズライセンスに従って自由に配布できます。 チェックリスト形式になっているので、自分のコーディング/開発スタイルがどの程度適合しているのか、簡単にチェックできるようになっています。コーディングスタイルのみでなく、運用はシステム構成に関連する物も含まれています。私が解説/紹介しているセキュリティ対策を行っている開発チームであればこれらの殆どに適
こんにちは、開発本部インフラチームテックリードの櫻井です。 今回は2022年9月に行ったオンプレミスからAWSへの移行プロジェクトについて紹介したいと思います。 オンプレ環境の抱えていた課題 弊社の主力サービスである prtimes.jp はAWSなどのクラウドサービスではなく、自社サーバーをデータセンターに置くオンプレミスで運用してきました。 ほとんどのサーバーはVMware vShereを使って仮想サーバーとして構築されていましたが、データベース(PostgreSQL)だけは物理サーバーとして構築されていました。 このデータベースには750GBほどのストレージがありましたがそのうち90%近いデータが保存されており、なおかつ物理的にこれ以上ストレージを増設することができなかったため、データベースのストレージの枯渇を防ぐために早急に別のサーバーに移行する必要がありました。 またデータベース
望ましいのは「アルゴリズムによる自動化」か「人間の介入」か――。 Web検索の表示順からSNS(交流サイト)のタイムラインまで、ITサービスにおいて「自動化」と「人間の介入」のバランスは常に論争の種になってきた。 現在のAI(人工知能)技術をもってしても、人の介入なしには不適切なコンテンツの排除は難しい。一方で、恣意的な介入が過ぎればユーザーの不信感を生む。さらに、いずれの方法も判断のブラックボックス化につながる余地があり、判断の透明性が求められる。 米Twitter(ツイッター)を買収したElon Musk(イーロン・マスク)氏は、自動化を信奉するエンジニアの急先鋒(せんぽう)といえるだろう。同氏は買収前からTwitterのコンテンツモデレーション(投稿監視)の厳しさを批判していた他、買収合意のリリース文で「アルゴリズムのオープンソース化による信頼性の向上」を方針に掲げた。 ブロックチェ
こんにちは!sakasegawaです! ( https://twitter.com/gyakuse ) 今日は今流行のChatGPTについて紹介します! ChatGPTとは OpenAIが開発するGPT-3(※)というめちゃくちゃすごい言語モデルをベースとしたチャットアプリです。 色んな質問にすぐ答えてくれます。 この記事ではさまざまな使い方を紹介します。 https://chat.openai.com/ ちなみにGPT-3関連では、noteの以下記事も便利なのでぜひ読んでみてください AIがコミットメッセージ自動生成!神ツール『auto-commit』『commit-autosuggestions』の紹介 ※正確にはGPT-3.5シリーズと呼ばれています ChatGPTの仕組みを考えながらプロンプトを作る手法はこちらに別途まとめています 文章 質問-応答 〜について教えて Wikiped
民藝運動(民芸運動、みんげいうんどう)とは、手仕事によって生み出された日常づかいの雑器に美を見出そうとする運動。「民藝」とは「民衆的工藝」の略語で、柳宗悦らによる造語。1926年(大正15年)に柳宗悦、富本憲吉、河井寛次郎、濱田庄司が連名で「日本民藝美術館設立趣意書」を発表したことが、運動の始まりとされる。全国の民藝館などで運動が続けられている。 日本民藝館の創設者であり民藝運動の中心人物でもある柳宗悦は、日本各地の焼き物、染織、漆器、木竹工など、無名の工人の作になる日用雑器、朝鮮王朝時代の美術工芸品、江戸時代の遊行僧・木喰(もくじき)の仏像など、それまでの美術史が正当に評価してこなかった、西洋的な意味でのファインアートでもなく高価な古美術品でもない、無名の職人による民衆的美術工芸の美を発掘し、世に紹介することに努めた。 「民藝」の提唱者の一人である柳宗悦は、1889年に東京の麻布に生まれ
民藝運動について 民藝運動は、1926(大正15)年に柳宗悦・河井寛次郎・浜田庄司らによって提唱された生活文化運動です。当時の工芸界は華美な装飾を施した観賞用の作品が主流でした。そんな中、柳たちは、名も無き職人の手から生み出された日常の生活道具を「民藝(民衆的工芸)」と名付け、美術品に負けない美しさがあると唱え、美は生活の中にあると語りました。そして、各地の風土から生まれ、生活に根ざした民藝には、用に則した「健全な美」が宿っていると、新しい「美の見方」や「美の価値観」を提示したのです。工業化が進み、大量生産の製品が少しずつ生活に浸透してきた時代の流れも関係しています。失われて行く日本各地の「手仕事」の文化を案じ、近代化=西洋化といった安易な流れに警鐘を鳴らしました。物質的な豊かさだけでなく、より良い生活とは何かを民藝運動を通して追求したのです。 民藝運動の父、柳宗悦 民藝について紹介するに
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く