2024年4月23日のブックマーク (14件)

  • 羊の皮を被ったGPT:カスタマイズされたGPTのリスク - evergreens

    JAVA Code Assistant GPTs (脆弱性が確認されたLog4j versionのjavaへのdowngrade)

    羊の皮を被ったGPT:カスタマイズされたGPTのリスク - evergreens
  • 北朝鮮、日本アニメ制作関与か サーバーからファイル―米分析:時事ドットコム

    北朝鮮、日アニメ制作関与か サーバーからファイル―米分析 時事通信 外信部2024年04月23日10時10分配信 北朝鮮国旗(AFP時事) 【ワシントン時事】米国の北朝鮮分析サイト「38ノース」は22日、日や米国のアニメ制作に北朝鮮アニメーターが関与した疑いがあると明らかにした。北朝鮮が管理していたとみられるクラウドサーバーに、これらアニメの関連ファイルなどが保管されていたという。 北朝鮮技術者が成り済ましか IT業界団体に注意喚起―警察庁など 38ノースによると、関与が疑われるのは、7月放送予定のTVアニメ「魔導具師ダリヤはうつむかない」のほか、米アニメ「インビンシブル」などの作品。札幌市のアニメ制作会社の名前が入ったファイルもあったという。 サーバーからは、中国語や朝鮮語のコメントが記載されたアニメの画像などが見つかった。解析した米シンクタンク「スティムソン・センター」のマーティ

    北朝鮮、日本アニメ制作関与か サーバーからファイル―米分析:時事ドットコム
  • かくしてGoogleはスパマーに敗北した | p2ptk[.]org

    以下の文章は、コリイ・ドクトロウの「Google reneged on the monopolistic bargain」という記事を翻訳したものである。 Pluralistic 驚くべきことに、かつてAltavistaやYahooをふっと飛ばし、魔法の検索ツールで世界を驚かせたGoogleが、突如クソの山になってしまった。 Googleの検索結果はひどいものだ。ページの上部はスパム、詐欺、広告だらけだ。始末に終えないのは、その広告も詐欺だらけなのだ。時には、資金力のある敵対者がGoogleを出し抜いて大金を稼ごうと大掛かりな詐欺が試みることもある。 https://www.nbcnews.com/tech/tech-news/phone-numbers-airlines-listed-google-directed-scammers-rcna94766 しかし通常、こうした詐欺を働くのは

    かくしてGoogleはスパマーに敗北した | p2ptk[.]org
  • 「うつ病が90%以上寛解」下村博文元文科相が絶賛する”魂の開発者”の治療法に専門家が唱える苦言 | FRIDAYデジタル

    ABJマークは、この電子書店・電子書籍配信サービスが、著作権者からコンテンツ使用許諾を得た正規版配信サービスであることを示す登録商標 (登録番号 第6091713号) です。 ABJマークについて、詳しくはこちらを御覧ください。https://aebs.or.jp/

    「うつ病が90%以上寛解」下村博文元文科相が絶賛する”魂の開発者”の治療法に専門家が唱える苦言 | FRIDAYデジタル
    kybernetes
    kybernetes 2024/04/23
    「魂の開発者」かっこいいのがまた
  • 卓越大内定の東北大、研究資金の申請で虚偽疑惑

    政府が若手研究者の安定雇用促進を目的に実施する「卓越研究員事業」に、東北大学が要件を満たさない雇用制度で2019年度と2020年度に申し込み、研究支援の補助金を得ていた疑いが極めて濃いことが東洋経済による取材で分かった。 政府が「卓越研究員」として認定した優秀な若手研究者を、国公立大学などの研究機関がいくつかの要件を満たす形で雇用すれば、研究機関が補助金を得られる卓越研究員事業。この要件のうち最も基的なものが、若手研究者を「テニュアトラック」で採用していることだ。 「名ばかりテニュアトラック」で申請 テニュアトラックとは、研究機関が若手研究者を将来的に無期雇用になれるチャンス付きの有期雇用で受け入れる制度をいう。 まずは3~5年程度の有期雇用でスタートするが、その期間内に、”もれなく””公正な”審査を受ける機会を与える必要がある。そして、審査に合格すれば「テニュア」と呼ばれる無期雇用のポ

    卓越大内定の東北大、研究資金の申請で虚偽疑惑
  • 日本の深海探査能力がボロボロになっている件(チタン耐圧殻製造能力喪失etc)

    imgurの人/とほほ電池@充電中 @chageimgur 現代兵器、宇宙機、あと型月好きのただのオタ。 特に専門知識はないけど、ニュースやPDFで長文するマン。 長々と書くが基妄想である。 軍板ですがスレなどにもいるが、ここでも相も変わらずミリネタと宇宙ネタをメインに遊ぶ。

    日本の深海探査能力がボロボロになっている件(チタン耐圧殻製造能力喪失etc)
  • 「カレー屋は貧困を固定化する装置です」借金まみれで日本にやってくるネパール人労働者が搾取から抜け出せないワケ | 文春オンライン

    「ネパール人経営のインドカレー店」が今や日全国、津々浦々で大増殖している。日人のエスニックファンの間で「インネパ」とも呼ばれるようになった彼らは、なぜここまで増えたのか? そしてその背後にあることは……。『カレー移民の謎』(集英社新書)より一部抜粋し、その理由と搾取に苦しむネパール人労働者の実態に迫った。(全2回の前編/続きを読む) ◇◇◇ 家や土地を売り、足りなければ借金してまでカネを作るネパール人たち コックが独立開業してオーナーになり、母国から新しくコックを呼び、そのコックも独立し……という暖簾分け的なシステムのもとに「インネパ」が広がっていった経緯を見てきたが、ここまで爆発的に増殖した理由はほかにもある。そのひとつが「コックのブローカー化」だ。 「外国人が会社をつくるには500万円の出資が必要じゃないですか。ネパール人にはすごく大きなお金です。家族や親戚や銀行から借りる人もいま

    「カレー屋は貧困を固定化する装置です」借金まみれで日本にやってくるネパール人労働者が搾取から抜け出せないワケ | 文春オンライン
  • Google Colab で Llama 3 のファインチューニングを試す |npaka

    Google Colab」での「Llama 3」のファインチューニングを試したので、まとめました。 【注意】Google Colab Pro/Pro+のA100で動作確認しています。 1. Llama 3「Llama 3」は、Metaが開発したオープンモデルです。 2. 学習Colabでの学習手順は、次のとおりです。 (1) Colabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」の「A100」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install -U transformers accelerate bitsandbytes !pip install trl peft wandb !git clone https://github.com/huggingface/trl %cd trl(3) 環境変数の準備。 左

    Google Colab で Llama 3 のファインチューニングを試す |npaka
  • 渋谷の宮下パークが混みすぎててびっくり→若者が行くところがない?「スタバがいつも満席で座れない」

    ぴ @Blackymarine ちなみに下に降りて渋谷まで歩く方向にある渋谷横丁も人すごかったです。さながら祭り。渋谷に現れた新橋ガード下。 pic.twitter.com/sD9hdySCQy 2024-04-21 15:47:31 リンク MIYASHITA PARK 公式ウェブサイト MIYASHITA PARK 公式ウェブサイト MIYASHITA PARKの公式ウェブサイト。新しく生まれ変わった宮下公園で、公園の中で、ショッピングにべ歩き、スポーツに夜遊びまで。TOPICSやイベント情報、最新ニュースなどをお届けしていきます。 10 users 1408 S @BLTplz これ、去年くらいからずっと続いてて、つまりは若者が行くところがないのよ。話を聞くと、こんなにスタバがあってもいつも満席で座れないしそもそも高いし、ミヤシタパークならタダだから、と。中にはロング缶持ってる人も

    渋谷の宮下パークが混みすぎててびっくり→若者が行くところがない?「スタバがいつも満席で座れない」
  • #生成AIなんでも展示会 に行ってきた|賢木イオ @studiomasakaki

    昨日4/21(日)に渋谷で開催された、AI系の個人開発展示会イベント「生成AIなんでも展示会」に一般参加してきましたので、簡単なレポを書きたいと思います。 このイベントはAI生成物の展示会ではなく、「個人が生成AIを使って生み出したさまざまな"プロダクト"を紹介する展示会」というコンセプト。画像生成系だけでなく、音声合成系やLLM系などさまざまなジャンルの展示が集まっていました。 場所は東急ハンズのすぐ近くのオフィスビル「abema towers」10Fの大会議室。横広の会場を取り囲むように机が並び、計36あるブースを興味のある順に自由に見て回れる感じのイベントです。この日は500人の定員を上回る応募があり、AI個人開発イベントとしては日最大規模となったそうです。スゴイ! 会場はこんな感じ開催時間は14時~18時だったのですが、この日は家族サービスでコナン映画(青山剛昌ワールドがクロス

    #生成AIなんでも展示会 に行ってきた|賢木イオ @studiomasakaki
  • 自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ

    最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です 話題の、Command-r-Plusは、日語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。 コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、command-r-plusをすべてGPUに載せて推論しようと考えると、3台のマルチGPUデスクトップが必要です しかし、RTX4090は450W消費のGPUのため冷却機構が大きく、1デスクトップに3台収めるのは至難の業となります。 先日、水冷ラジエーター付きRTX4090で、マルチGPUデスクトップを作成しました。 水冷

    自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ
  • 24/4/20 ダンジョン飯の感想 なぜファリンを蘇生したのは黒魔術なのか? - LWのサイゼリヤ

    ダンジョン飯 ダンジョン飯 1巻 (HARTA COMIX) 作者:九井 諒子 KADOKAWA Amazon 注:アニメ版ではなく漫画版の感想です 漫画最終巻までのネタバレを含みます ダンジョン飯 ああダンジョン飯 被者を蘇生するから黒魔術 充足と渇望のダイナミクス 禊としてのカニバリズム 対立と和解のダイナミクス 完結していたので全巻読んだ。かなり面白かった! 個人的にはミスルン隊長が一番好き(アニメ未登場)。華奢な割に突出した異常な強さを持つエロい男、推せる。 Web漫画にありがちな一話完結っぽいタイトルに反してハードなファンタジーとしてのストーリーがしっかりしている。一話冒頭でいきなりパーティーが全滅するところから始まり、「最深部でドラゴンにわれた妹・ファリンを取り戻す」という明確なゴールに向かって迷宮を下っていく。ファリンの蘇生と救出は四巻で早くも達成してしまったかと思いきや

    24/4/20 ダンジョン飯の感想 なぜファリンを蘇生したのは黒魔術なのか? - LWのサイゼリヤ
  • カレー沢薫の時流漂流(296) 母は言った、ゲームは1日1時間、ビールは1日1缶までよと

    言うのも恥ずかしい話だが、二十代前半のころ「酒豪キャラ」に憧れていた。 正攻法でモテることができない、もしくは正攻法でモテている人間をバカにしている人間は、エキセントリックなキャラ作りをしてしまいがちなところがある。 だがストレートすら投げられない奴が魔球をマスターできるわけがないのだ。 「個性」と「奇行」を混同してはいけない。大体は常識あってこその個性であり、個性だけで勝ち抜けるのは、ジョブズ級の才気を持っている奴だけである。 よって、当時は居酒屋に行くと、アルコールメニューを端から全部頼むなどして豪傑ぶりをアピールしていたが、今思えば、カクテルやチューハイメニューしか頼んでおらず、逆に「ジュースみたいな酒しか飲めない」ことを猛烈にアピってしまっていたような気がする。 しかし、酒に強いわけではないので、次の日は二日酔いで1日を無駄にするし、気が付いたらカバンが水浸しになっていたり、友人

    カレー沢薫の時流漂流(296) 母は言った、ゲームは1日1時間、ビールは1日1缶までよと
  • Command R+はどこまで量子化するとアホになってしまうのか?

    今回は、ローカルで動かせるCommand R+の量子化モデルを色々使ってそれぞれにElyzaTasksベンチマークを解かせるという事をやる。 何故そんな事をする必要があるんですか? まず、LLMのパラメータは来1パラあたり16bitの精度で保存されている。しかし、LLMを動かすとメチャクチャメモリやVRAMう。だから、精度を下げちゃえば省メモリになっていんじゃね?という話で、8bitやら4bitやら2bitに精度を下げちゃう事が、特にLlama.cpp界隈では常識的に行われている。これが量子化だ。というか、コンシューマレベルのPCでLLMを実用的に動かしたいと思えば、量子化はもはや必須テクである。 量子化でbit数を下げれば下げるほど、当たり前だがLLMの回答の精度、クオリティは下がっていく。要するにアホになってく。8bitはまったく問題なし。6bit、5bitも全然問題なし。4bit

    Command R+はどこまで量子化するとアホになってしまうのか?