2023年8月15日のブックマーク (5件)

  • “相対性理論”を100分間学べば、3分で説明できる? NHKが検証 挑戦者はサンシャイン池崎さん

    【修正履歴:8月17日午後0時30分 放送日が20日から変更となったため、内容を一部修正しました】 相対性理論を100分間気で学べば、3分で人に説明できるか?──そんな検証番組をNHKが8月27日に放送する。番組名は「朝までラーニング! #相対性理論~100分後にE=mc^2を説明するサンシャイン池崎~」。お笑い芸人・サンシャイン池崎さんが100分間の授業を受けた後、“推し”のアイドル・小池美波さん(櫻坂46)に3分間で相対性理論を説明できるか検証する。

    “相対性理論”を100分間学べば、3分で説明できる? NHKが検証 挑戦者はサンシャイン池崎さん
    tmtms
    tmtms 2023/08/15
    “お笑い芸人・サンシャイン池崎さんが100分間の授業を受けた後、“推し”のアイドル・小池美波さん(櫻坂46)に3分間で相対性理論を説明できるか検証する”
  • サンシャイン池崎が100分で相対性理論を学んで推しにカッコよく説明するEテレ深夜(コメントあり)

    サンシャイン池崎が100分で相対性理論を学んで推しにカッコよく説明するEテレ深夜 2023年8月15日 11:45 9546 1051 お笑いナタリー編集部 × 9546 この記事に関するナタリー公式アカウントの投稿が、SNS上でシェア / いいねされた数の合計です。 2006 6744 796 シェア

    サンシャイン池崎が100分で相対性理論を学んで推しにカッコよく説明するEテレ深夜(コメントあり)
    tmtms
    tmtms 2023/08/15
    “アインシュタインの相対性理論をサンシャイン池崎が本気で学んで3分でサラッと説明できるようになるのか見守る2時間半”
  • パリジェンヌにはズボンを履く権利がなかった⁈ 2013年まで残った19世紀の“男装禁止令”とは | 服装規定から考える女性の自由

    何度もおこなわれてきた廃止要求 「男装を望むすべての女性は警察署に出頭し、許可を得なければならない。また、その許可は保健官の診断のもとでのみ与えられる」 問題の条例はこう規定している。制定されたのは1800年11月7日(革命暦9年ブリュメール16日)だ。 女性の権利省が2013年1月に「(この条例は)暗黙のうちに廃止されている」と公式発表したのは、その前年1月にアラン・ウペール上院議員が、ズボンを禁止する「法律」の廃止を要求したことがきっかけだった。 ウペールは質問のなかで、自転車に乗る場合と馬に乗る場合を例外とする2つの通達を引用している。しかし、問題となっているのが「法律」ではなくパリ警察による「警察条例」だということなど、不正確な内容も含まれていた。 2010年にもパリ市議会でエコロジスト政党と共産党の要求により、要望が採決され、結果が警察に伝えられた。廃止の要求のための完璧な手続き

    パリジェンヌにはズボンを履く権利がなかった⁈ 2013年まで残った19世紀の“男装禁止令”とは | 服装規定から考える女性の自由
    tmtms
    tmtms 2023/08/15
  • 仮引数=parameter、実引数=argument って違くね? | site-hhs

    違うと断定していいかどうかは、なんつーか「歴史的事情」てのもありそうだし、(ワタシがここで言おうとしている)文脈依存なのね。 Python 翻訳の Transifex 用語集でこう定義されていてずっと違和感あってしょうがなかったんで、改めて考察してみた。 まず「日語におけるテクニカルターム」としての実引数、仮引数の違いは、「方向」の違いである。つーか、「らしい」。なんせアタシは「コンピュータ的な正規の教育」は、大学時代の Fortran のためのものだけだったし、これを教わった記憶は確かにあるものの、もう20年近く前ですもの、忘れていたさ。簡単だよ、これだけのこと: 仮引数は「受け取り手目線」(渡せよ、をらぁ) 実引数は「呼び出し側目線」(受け取れや、ごるぁ) で、WikiPedia での説明では英語との対応をこう説明している: 仮引数: parameter、formal paramet

    tmtms
    tmtms 2023/08/15
  • LINE、日本語の大規模言語モデル公開 オープンソースで 商用利用もOK

    LINEは8月14日、日語に特化した大規模言語モデル(LLM)「japanese-large-lm」を発表した。オープンソース(OSS)として公開し、商用利用も可能(Apache License 2.0)としている。 公開したLLMは、36億パラメーターと17億パラメーターの2つ。両モデルともHuggingFace Hubからアクセスできる。Web由来のテキストから大規模かつ高品質なデータ構築を行うため、OSSライブラリ「HojiChar」を使ったフィルタリング処理を実施。モデルの訓練には、LINE独自の大規模日語Webコーパス(最終学習は約650GBのコーパスで実施)を利用したという。 LINEは独自LLM「HyperCLOVA」の開発を長年手掛けているが、今回のモデルは別の開発ライン(LINEのMassive LM開発ユニット)にて構築したもの。同チームでは、指示文に対して適切な出

    LINE、日本語の大規模言語モデル公開 オープンソースで 商用利用もOK
    tmtms
    tmtms 2023/08/15
    Meta のと違って本当のオープンソースだ!