タグ

2024年4月22日のブックマーク (5件)

  • SIMフリーのホームルーターで「楽天固定回線計画」が完成した

    SIMフリーのホームルーターで「楽天固定回線計画」が完成した2024.04.21 16:35165,268 小暮ひさのり 2023年2月27日の記事を編集して再掲載しています。 こんなに簡単なら、もっと早くやればよかった。 僕、実家には固定回線代わりに「Rakuten UN-LIMIT」のモバイルルータを設置していました。 どれだけ使っても月額3,278円。通信速度はモバイル回線なので遅めですけど、両親はたまにiPadでのWeb検索や動画を見るくらいのカジュアルユーザーなので、安く最低限のインターネットを整えられてめでたしめでたし…。 だったのですが、遊びに行って気がついたのが、Wi-Fiエリア狭すぎ問題。 ルータのある部屋から、1部屋でも離れると急激にWi-Fiが弱くなるのです。モバイルルータって一軒家規模だとやっぱり力不足なのね。 Photo: 小暮ひさのりこの問題に頭を抱えていたので

    SIMフリーのホームルーターで「楽天固定回線計画」が完成した
    t_mori
    t_mori 2024/04/22
  • Obsidianが大学生活を変える! 学生必見の活用術 - Qiita

    ナレッジベース共有ではなく、自分のためだけのクローズドなローカル環境で動作する点において差別化がされている。何かを発信するのではなく自分自身のためにテキストをまとめるのです。 このテキストも外出先で書いています。 金欠学生はもちろん格安を売りにしたプロバイダーと契約しているので3GB程度しか余裕がないはずです(私は月の半ばでなくなりました)。しかしローカルで動作するので速度制限を恐れることなく使うことができるのです。 Obsidianは単なるノートアプリではなくアイデアを書き溜め、思考をまとめ上げ、一つの思想を創り上げる、最強のセカンド・ブレインである。 —私 メリット 日常的に使えばマークダウン記法に慣れて、サークルや研究室のesaの記事を書く心理的ハードルが下がる QiitaやZennなどの記事を公開するハードルも下がる 有名な使い方としてはドイツの社会学者が考案したツェッテルカステン

    Obsidianが大学生活を変える! 学生必見の活用術 - Qiita
    t_mori
    t_mori 2024/04/22
  • サーバーレスの次はなんなんだ

    はじめに この記事は、同人誌サークル「めもおきば」から不定期刊行している技術解説「めもおきばTecReport」に書いたものを公開用に再編集したものです。 ⇒ めもおきばTecReport 2023.12 この記事のほかにも「私もSecHack365に参加したい!」や、「2023年振り返りと2024年技術予想」としてこんなキーワードを取り上げているので、気になったらぽちっとしてください! メガクラウドと特化型クラウド/ハイパーバイザーのSoC化/ライセンスとクラウドベンダー/イベント駆動型API/LLM時代のAIペアプロ力/生活必需品としてのGPU・NPU/Passkey/ウェブアクセシビリティ/リアルイベントの再開 サーバーレスの次はなんなんだ サーバーレスと呼ばれる技術ムーブメントが盛り上がり始めて8年近くが経ちました。各クラウドベンダーのFaaS(Function-as-a-Ser

    サーバーレスの次はなんなんだ
    t_mori
    t_mori 2024/04/22
  • Linuxの各種仮想ネットワークデバイスにおけるSegmentation Offloadの振る舞い

    LinuxにおけるSegmentation OffloadとはTCPなどのトランスポートレイヤのプロトコルが送信するデータをMTUに収まるように分割する処理(Segmentation)をNICのレイヤにオフロードすることによってスループットを向上させる技術です. Segmentation Offloadを使った場合, トランスポートレイヤのプロトコルはIPレイヤで許容される最大のサイズ(64KB程度)までのデータを1つのIPパケットで送信することができます. 受信側は逆にネットワークから入ってきたSegmentation済みのパケットをNICのレイヤで1つの大きなIPパケットに集約した上でプロトコルスタックの処理にかけます. これによってプロトコルスタックで処理されるパケットの個数を減らすことができるため, スループットが上がるという仕組みです. Linuxには仮想ネットワークデバイスとい

    Linuxの各種仮想ネットワークデバイスにおけるSegmentation Offloadの振る舞い
    t_mori
    t_mori 2024/04/22
  • いちばんやさしいローカル LLM|ぬこぬこ

    概要ローカル LLM 初めましての方でも動かせるチュートリアル 最近の公開されている大規模言語モデルの性能向上がすごい Ollama を使えば簡単に LLM をローカル環境で動かせる Enchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができる quantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに小さくできる 1. はじめに大規模言語モデル(LLM)の数は数年前と比べてたくさん増えました。有名な LLM を使ったチャットサービスとして、OpenAIChatGPT や Anthropic の Claude、Google の Gemini などがありますが、これらのサービスの中で利用されている大規模言語モデルは公開されていません。 現状、様々な評価指標により LLM の性能が測定されていますが、

    いちばんやさしいローカル LLM|ぬこぬこ
    t_mori
    t_mori 2024/04/22