タグ

2023年2月23日のブックマーク (9件)

  • Make systemd better for Podman with Quadlet

    Quadlet, a tool merged into Podman 4.4, hides the complexity of running containers under systemd to make it easier to maintain unit files written from scratch. One of the best features of Podman is how well it works with systemd. Podman uses the standard fork/exec model, which is easily adaptable to the systemd system and service manager model. [ Download now: Podman basics cheat sheet ] In Podman

    Make systemd better for Podman with Quadlet
    Nyoho
    Nyoho 2023/02/23
  • NHKスペシャル「シリーズ キラーストレス」- NHK

    第1回で注目するのは、私たちの命を奪いかねない、いわば「キラーストレス」とでも呼ぶべきストレスのメカニズムです。脳科学や生理学など最先端の研究によって、ストレスが血管や脳を破壊したり、がんを悪化させたりするといった、人を病に陥れる詳細なメカニズムが明らかになってきています。 キラーストレスが突然死やがんをどのように引き起こしていくのか。そして、ストレスの状態を把握するにはどうしたらよいのか。世界の最新研究から分かってきた効果的なストレス対策についてお伝えします。 ●キラーストレスとは 脳の扁桃体が不安や恐怖を感じると ストレス反応と言われる反応が始まります。 ストレスホルモンが分泌されたり自律神経が興奮したりします。そのために心拍数が増える、血圧が高くなるといった反応が起こります。これがストレス反応です。 一つ一つは小さくても、多くのストレスが重なると、キラーストレスともいうべき危険な状態

    NHKスペシャル「シリーズ キラーストレス」- NHK
    Nyoho
    Nyoho 2023/02/23
  • Category theory: online lecture notes, etc. - Logic Matters

    The links below are to a selection of freely (and legitimately!) available online resources for those interested in category theory at an elementary/intermediate level. Three excellent introductionsAnother gentle introduction?Selected lecture notesSelected books and hand-book articlesA more comprehensive list of online lecture notes and books.A few videosIntroductory readings for philosophersThree

    Category theory: online lecture notes, etc. - Logic Matters
    Nyoho
    Nyoho 2023/02/23
  • ChatGPTは、質問するより作業を依頼する方が良さげ | ちゃんとブログ。

    賢いチャットAIとして話題のChatGPT。筆者も試しに課金をして、あれこれチャットを楽しんでいます。それで、ここまでの結論としては表題の通り、ChatGPTは質問をするよりも、作業を依頼する方が良さげだなと思いました。 知識が古くて、質問には使えない なぜかというと、ChatGPTは現状では学習データが若干古く、例えば2023年2月時点で「日の総理大臣は誰?」と質問をすると、菅義偉氏であると回答されます。(実際には岸田文雄氏) また、情報をまとめて管理している訳ではなく、例えば「店名」と「住所」など関連しているはずの情報がバラバラに管理されているのか、例えば「新宿駅近くのイタリアンのお店は?」といった検索サイトの代わりに使おうと思っても、実在しないお店などが表示されてしまって、現状では使い物になりませんでした。 一番上の「イルポンテ」というお店は、該当の住所はなさそうです(上石神井には

    ChatGPTは、質問するより作業を依頼する方が良さげ | ちゃんとブログ。
    Nyoho
    Nyoho 2023/02/23
  • 第8波の死者の多さは「報告上回る感染が原因」 専門家有志分析 | 毎日新聞

    厚生労働省に新型コロナウイルス対策を助言する専門家組織の有志は22日、感染の「第8波」の新規感染者数が昨夏の第7波より少なかったにもかかわらず、死者数が大きく上回ったのは、実際の新規感染者数が感染報告よりも多かったことが原因になったと推測する分析を発表した。重症化リスクの増加などウイルスの性質が変わった可能性は低いとしている。 分析は、22日に開かれた厚労省の専門家組織「アドバイザリーボード(AB)」(座長=脇田隆字・国立感染症研究所長)の会合で示された。分析によると、報告された感染者数のうち80歳以上が占める割合が第7波の約1・3倍に増加した。年末年始の帰省や高齢者施設でのクラスター(感染者集団)の発生などで、高齢者の感染機会が増えた可能性があると指摘した。

    第8波の死者の多さは「報告上回る感染が原因」 専門家有志分析 | 毎日新聞
    Nyoho
    Nyoho 2023/02/23
  • ウクライナ侵攻、小泉悠氏「国家間戦争の脅威を可視化」 - 日本経済新聞

    ロシアによるウクライナへの軍事侵攻開始から24日で1年となる。小泉悠・東大先端科学技術研究センター専任講師に今後の見通しを聞いた。――侵攻開始から1年がたちます。「国家間の大規模な戦争が起こりうると改めて可視化された。冷戦後、戦争はなくなりテロとの非対称戦に移ると思われた時期があったが、古典的な戦争の脅威は去っていない。欧州ではロシアが最大の脅威だと明確になった」「最大の驚きはウクライナ

    ウクライナ侵攻、小泉悠氏「国家間戦争の脅威を可視化」 - 日本経済新聞
    Nyoho
    Nyoho 2023/02/23
  • 子ども予算倍増は「出生率が上がれば実現」 木原官房副長官が見解:朝日新聞デジタル

    ","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"

    子ども予算倍増は「出生率が上がれば実現」 木原官房副長官が見解:朝日新聞デジタル
    Nyoho
    Nyoho 2023/02/23
    はぁ……
  • ゲームさんぽの次に見るべきYouTubeの教養コンテンツ

    ゲームさんぽが終わってしまった。いや正確にはまだ終わったわけじゃないけど、自分がYouTubeに齧り付くきっかけとなったチャンネルなので、どこか名残惜しい。 ゲームさんぽを知って、こんな「教養のお裾分け」をしてくれるものが転がっているという事に驚き、それからYouTubeで似たようなチャンネルを探し回っていた。しかし素直に「教育」とか「教養」のジャンルを検索しても、出てくるのは中田のあっちゃんかDaiGoか、あるいはアフィリエイトのにおいのするチャンネルで、ちょっと違うなぁという感じ。とりあえず興味のあるものを片っ端から再生して、関連動画にサジェストされるものを集めて回った。 良い機会だと思って、その中から特に気に入ったものをリストアップしてみた。選出の目安は次のとおり。 ・その道の専門家またはマニアが関わっていること ・参考文献が明示されていること ・どちらかというと、素人でも取っ付きや

    ゲームさんぽの次に見るべきYouTubeの教養コンテンツ
    Nyoho
    Nyoho 2023/02/23
    「龍孫江の数学日誌」おすすめ
  • Google Colab で PEFT による大規模言語モデルのファインチューニングを試す|npaka

    Google Colab」で 「PEFT」による大規模言語モデルのファインチューニングを試したので、まとめました。 1. PEFT「PEFT」(Parameter-Efficient Fine-Tuning)は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。 大規模言語モデルのファインチューニングは、多くの場合、法外なコストがかかりますが、「PEFT」は少数のパラメータのみをファインチューニングするため、計算コストとストレージ コストが大幅に削減でき、さらには、完全なファインチューニングに匹敵するパフォーマンスを実現します。 現在サポートしている手法は、次の4つです。 ・LoRA ・Prefix Tuning ・P-Tuning ・Prompt Tuning 2. Colabでの実行Google Colab

    Google Colab で PEFT による大規模言語モデルのファインチューニングを試す|npaka
    Nyoho
    Nyoho 2023/02/23
    “「PEFT」(Parameter-Efficient Fine-Tuning)は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。”