タグ

2018年9月8日のブックマーク (6件)

  • 集合の濃度と可算無限・非可算無限 | 高校数学の美しい物語

    集合 AAA の「大きさ」 について考えます。AAA が有限集合のときには,AAA の要素数が「大きさ」と考えられますが,無限集合のときは要素数を数えることができません。無限集合の中でも「要素がたくさんある」ものと「要素があまりない」ものを区別するために,集合に対して濃度という概念が定義されます。 集合 AAA の濃度 ∣A∣|A|∣A∣ を以下のように定義する。 有限集合 AAA の濃度 ∣A∣|A|∣A∣ は AAA の要素数とする。 AAA から BBB への全単射(一対一対応)がある場合(またそのときに限って)∣A∣=∣B∣|A|=|B|∣A∣=∣B∣ とする。 集合 AAA から BBB への単射が存在するとき,∣A∣≤∣B∣|A|\leq |B|∣A∣≤∣B∣ とする。 単射とは x≠yx\neq yx=y ならば f(x)≠f(y)f(x)\neq f(y)f(x)=f(

    集合の濃度と可算無限・非可算無限 | 高校数学の美しい物語
  • 準同型写像 [物理のかぎしっぽ]

    ここまでに,群の性質や,群の働き方,部分群にまつわる様々なトピックを勉強してきました.いわば,いままでは群そのものについて勉強してきたとも言えるでしょう. この記事では少し趣向を変えて,二つの群, と があったときに,群 の元から群 の元へ対応関係がつけられるかを考えます.今までは二つの群が同型である,という意味を,やや曖昧にしたまま直観的に使ってきましたが,二つの群の対応関係をきちんと考えることで,群の同型という意味がはっきりしてきます. 実は,対象そのものを一つだけ考えるよりも,対象を写像してみることで,結局は対象の構造がよく分かる,ということが数学ではよくあります.写像の話題が大事なのは,一つには,写像を考えることで代数構造への理解が深まるという理由が考えられます.

  • 同型と準同型

    $\displaystyle{G_1=\{0^\circ,120^\circ,240^\circ\}}$ つまりG1を0°,120°,240°の、3つの角度の集合とします。 はいっ、次に角度の足し算を。 $\displaystyle{0^\circ+120^\circ=120^\circ}$ $\displaystyle{120^\circ+120^\circ=240^\circ}$ ですが、 $\displaystyle{240^\circ+240^\circ=120^\circ}$ となります。(360°=0°です。一周して480°=120°になりました。) ということで$\displaystyle{G_1}$は角度の足し算$\displaystyle{+}$に関して群となります。 $\displaystyle{+}$ $\displaystyle{0^\circ}$ $\displa

  • 株式会社ALBERT(レコメンドエンジン)

    データ分析から導き出されたインサイト無しにAI人工知能)の活用は始まりません。私たちは、各業界知識とデータ・アナリティクス技術を駆使しデータドリブン経営を強力に支援します。 データ、アナリティクス、AIは企業にとって競合他社との差別化を図るかつてないほど大きな要因になっています。今日の経営幹部が効率を向上しながら新たな収益源を開拓し、新しいビジネスモデルをタイムリーに構築する方法を模索する中、価値を生み出し成長を続ける企業には「データ活用」という共通項があります。私たちは、無数のデータから企業にとって当に必要なデータを活用するための方法を知っています。 将来を見据えたオペレーション体制を備えている企業の半数以上(52%)は、すでにデータとアナリティクスを大規模に活用しています。データとAIに関する取り組みをビジネス戦略に沿って実施することで投資利益率を迅速に最大化し、最終的にはAIをビ

    株式会社ALBERT(レコメンドエンジン)
  • 論文解説 Attention Is All You Need (Transformer) - ディープラーニングブログ

    こんにちは Ryobot (りょぼっと) です. 紙は RNN や CNN を使わず Attention のみ使用したニューラル機械翻訳 Transformer を提案している. わずかな訓練で圧倒的な State-of-the-Art を達成し,華麗にタイトル回収した. また注意を非常にシンプルな数式に一般化したうえで,加法注意・内積注意・ソースターゲット注意・自己注意に分類した.このうち自己注意はかなり汎用的かつ強力な手法であり他のあらゆるニューラルネットに転用できる. WMT'14 の BLEU スコアは英仏: 41.0, 英独: 28.4 で第 1 位 Attention Is All You Need [Łukasz Kaiser et al., arXiv, 2017/06] Transformer: A Novel Neural Network Architecture f

    論文解説 Attention Is All You Need (Transformer) - ディープラーニングブログ
  • 弱位相 - Wikipedia

    この項目では、ノルム線型空間上の弱位相について説明しています。写像の族による弱位相については「始位相」を、空間の被覆による弱位相については「コヒーレント位相」をご覧ください。 弱位相(じゃくいそう、英: weak topology)とは、ノルム空間X上に定義される位相の一つである。体K上のノルム空間にはノルムから定まる位相(ノルム位相。弱位相と区別するため強位相とも呼ばれる)があるが、弱位相はこれよりも弱い(強くない)位相であり、X上のK値有界線形写像(すなわちXの共役空間X*の元)が全て連続になる最弱な位相である。なお弱位相は位相空間論における始位相(英語版)の特別な場合に当たる。 強位相に関するものと区別するため、弱位相に関する連続性、収束性、コンパクト性はそれぞれ弱連続性、弱収束性、弱コンパクト性と呼ばれる。 項では弱位相の関連概念である*弱位相についても述べる。 定義[編集] 以

    y034112
    y034112 2018/09/08
    ヒルベルト空間における弱収束と強収束