harajuneのブックマーク (1,605)

  • 世界中の大学のコンピュータサイエンスやプログラミング講座が日本語で学べる「MOOC」(大規模公開オンライン講座)サイトまとめ。2024年版

    世界中の大学のコンピュータサイエンスやプログラミング講座が日語で学べる「MOOC」(大規模公開オンライン講座)サイトまとめ。2024年版 インターネット上にはコンピュータ関連の情報があふれていますが、その情報の正確さや網羅性は玉石混淆で、いざそれらから学ぼうとしても取捨選択の段階で立ち止まってしまうこともあるはずです。 そうしたときに頼りになるもののひとつが大学のような専門の教育機関による講座であり、それらの講座を有料もしくは無料で提供する「MOOC」(Massive Open Online Courses:大規模公開オンライン講座)のWebサイトはここ数年で広く知られるようになってきました。 そこで記事では、世界中の大学の講座などを提供している主要なMOOCサイトから、日語で学べるコンピュータ関連の講座で、しかも無料で学べるものをピックアップしてみました。 もちろん、MOOCサイト

    世界中の大学のコンピュータサイエンスやプログラミング講座が日本語で学べる「MOOC」(大規模公開オンライン講座)サイトまとめ。2024年版
    harajune
    harajune 2024/08/05
  • GeminiがYouTube動画を一瞬で要約してくれるようになった(しかも無料) | ライフハッカー・ジャパン

    YouTubeにアップされている何十億もの動画のうち、あなたが一生に目にするのはごく一部でしょう。 重要なポイントだけを知りたいのに、そこにたどり着くまでにたくさんのことに目を通さなければならない動画もあります。それは無駄な時間です。 もし、視聴する動画の重要な情報を要約することで、視聴時間を短縮できるとしたらどうでしょう? 幸いなことに、GoogleAIチャットボットであるGeminiには、YouTubeの拡張機能が組み込まれており、デフォルトで有効になっています。

    GeminiがYouTube動画を一瞬で要約してくれるようになった(しかも無料) | ライフハッカー・ジャパン
    harajune
    harajune 2024/05/21
  • サイバーセキュリティ情報インプット集 第1.0版 - Qiita

    定期的に更新・追加していきます。 セキュリティガイドライン、フレームワーク集 サイバーセキュリティガイドラインやフレームワーク等を参照することは、自組織でのセキュリティステータスを把握し、実際にセキュリティ施策を打つうえで非常に重要となります。 ただ、これらの文書の要件を満たすような施策を実施するためには、 1. 自組織が適用(組織・技術的に対策)したい各種ガイドラインやフレームワーク等を選定する 2. これら文書における抽象的な要件を具体的な要件へ落とし込む 3. 具体的な要件を満たすために最適なセキュリティ策を実施する のような流れを踏む必要があります。 2、3についてはセキュリティ策や技術動向に精通したセキュリティ専門家による対応が求められますが、1については自組織が目指す目的に依存するため専門家の手を借りずともある程度は対応することができます。 また、業界や技術等の軸で存在感のある

    サイバーセキュリティ情報インプット集 第1.0版 - Qiita
    harajune
    harajune 2024/05/21
    “.0”
  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAI命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    harajune
    harajune 2024/05/21
  • 鳥羽周作シェフおすすめ人気レシピ「ナポリタンを超えたナポリタン」作ってみた | ヨムーノ

    こんにちは、調理師でヨムーノライターのだいきです。 ナポリタンと聞くと、レトロな喫茶店でべるどこか懐かしい味を想像しませんか?ホッとする味というか。 まあ僕はレトロな喫茶店って行ったことないんですけどね(笑)。僕的には、弁当に入っているハンバーグの下にひいてあるナポリタンの方が馴染みがあります。あれって不思議ですよね。 と、そんなことは置いておいて。今回はとある番組で紹介されていた「ナポリタンを超えたナポリタン」を紹介します。普段のナポリタンが確実に美味しくなりますので、ぜひ最後までご覧ください。 ミシュランシェフの「ナポリタンを超えたナポリタン」 「ナポリタンを超えたナポリタン」は、ミシュラン東京2020で星を獲得した、レストランsioのオーナーだった鳥羽周作さんのレシピです。 日テレビ系『スッキリ(2020年4月30日放送)』では、水卜アナが「ナポリタンを超えたナポリタン」に挑戦し

    鳥羽周作シェフおすすめ人気レシピ「ナポリタンを超えたナポリタン」作ってみた | ヨムーノ
    harajune
    harajune 2024/04/09
  • 個人開発を7年以上続けて分かった技術選択のコツ

    技術革新に適応しようとするイヌさんInkdropというMarkdownノートアプリを作り続けて7年になる。 お陰さまでその売上でずっと生活できている。 これまで個人開発でどう継続していくかについて「ユーザの退会理由をあれこれ考えない」とか「アプリの売上目標を立てるのをやめました」とか、ビジネス面あるいはメンタル面からいろいろ書いてきた。 今回は、技術面にフォーカスして、どう継続して開発していくかについてシェアしたい。 TL;DR最初はとにかく最速でリリースする事を最優先する迷ったら「ときめく方」を選べ程よいところで切り上げて開発を進める使っているモジュールがdeprecatedされるなんてザラだと覚悟する古いから悪いとは限らないシンプルにしていく老舗から継続の秘訣を学ぶ運ゲー要素は排除しきれない最初はとにかく最速でリリースする事を目標に技術選定する開発計画とビジネス計画は切っても切り離せな

    個人開発を7年以上続けて分かった技術選択のコツ
    harajune
    harajune 2024/03/16
  • 今日から始めるChatGPT+Zapierで雑パーソナライズ情報収集 - LayerX エンジニアブログ

    皆さんこんにちは。CTOの松です。LLM使ってますか?ChatGPT毎日触ってますか? LLMに熱狂してすでに1年以上が経ちましたが周辺エコシステムが充実してきたことでいろいろな取り組みがとても簡単に実現出来るようになったなーと感じています。 ということで今回はZapierを使った小ネタのご紹介です。 AI・LLM事業部の今 とその前に、AI・LLM事業部での取り組みから着想を得たものでして、AI・LLM事業部について簡単に紹介させてください。 LayerXの新規事業であるAI・LLM事業部では、バクラクでも取り組んできたビジネス文書の解析の延長としてLLMを活用して文書分析エンジンの開発を進めています。現在このエンジンを使ったエンタープライズ向けの新規プロダクト開発にいそしんでおります。とても楽しいですし、最近は様々なお客様からの引き合いも増えておりまして、事業成長に向けて満を持しての

    今日から始めるChatGPT+Zapierで雑パーソナライズ情報収集 - LayerX エンジニアブログ
    harajune
    harajune 2024/03/12
  • プログラミングというより物事が出来る思考法~実践編|牛尾 剛

    大変多く読んでいただいた「プログラミングというより物事が出来る思考法」というポストや、世界一流エンジニアの思考法の書籍で紹介した内容がある。 私の職場でも、ものすごく出来る人が「実践」しているところを何回も目撃しているので「実践編」として皆さんにシェアしようと思って今回のポストを書いてみた。 タイトルにもある通り、私はエンジニアだが、ビジネス書である書籍と書かれた多くの思考法と同じく、あまりエンジニアリングというものに関係ない要素であると感じている。 上記のポストや書籍でシェアした内容を端的に言うと「理解には時間がかかるがかける価値が十分あり、それによって自分が物事をコントロールしている感覚を身につけることが出来る」という自分の小さな発見だ。私がこのことを最初に発見したのは、新卒の出来る人々との出来事がきっかけだが、今回その小さな自分なりの発見を後押しするような出来事がいくつかあった。それ

    プログラミングというより物事が出来る思考法~実践編|牛尾 剛
    harajune
    harajune 2023/12/14
  • AWSコスト削減とリソース管理 | 外道父の匠

    クラウド使いなエンジニアの皆様、猛暑と円安の中いかがお過ごしですか。上層部からインフラコスト削減を突きつけられてはおりませんでしょうか。 今回はおそらく初めてコスト削減についてAWSを軸に書いていきますが、考え方はどこの環境でも似たりよったりなので何かしらの足しになればと思う次第であります。 目次 長いです。ひきかえしたほうがいいぞ! コミュニティに捧げます AWSの売上 コスト削減とは 三大使命 コスト状況整理 Load Balancer 参考リンク 統合による削減 EC2 Autoscaling 参考リンク 情報整理 古いインスタンスタイプの変更 スケジュールの調整 スポットインスタンスの適用 軽量インスタンスの統合・サーバーレス化 アプリケーション処理の軽減 EC2 EBS EBSは高い 不要EBSを削除・スナップショット化 ボリュームタイプの変更 EC2 AMI NAT Gatew

    AWSコスト削減とリソース管理 | 外道父の匠
    harajune
    harajune 2023/08/25
  • 日本語画像言語モデル「Japanese InstructBLIP Alpha」をリリースしました — Stability AI Japan

    Stability AIは日語向け画像言語モデル「Japanese InstructBLIP Alpha」を一般公開しました。入力した画像に対して文字で説明を生成できる画像キャプション機能に加え、画像についての質問を文字で入力することで回答することもできます。 Japanese InstructBLIP AlphaJapanese InstructBLIP Alpha」は、先日公開された日語向け指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を拡張した、画像を元にしたテキストが生成されるモデルです。 「Japanese InstructBLIP Alpha」は、高いパフォーマンスが報告されている画像言語モデルInstructBLIPのモデル構造を用いております。少ない日語データセットで高性能なモデルを構築するために、モデルの一部を大規模な

    日本語画像言語モデル「Japanese InstructBLIP Alpha」をリリースしました — Stability AI Japan
    harajune
    harajune 2023/08/17
  • Googleが「Project IDX」発表。生成的AIが支援するマルチプラットフォーム、フルスタックアプリ開発対応のWebIDE

    Googleが「Project IDX」発表。生成的AIが支援するマルチプラットフォーム、フルスタックアプリ開発対応のWebIDE Googleは、Webブラウザベースの新しい統合開発環境「Project IDX」を発表しました。 Project IDXは、モバイルやデスクトップなどのマルチプラットフォームに対応したフルスタックのWebアプリケーションを、さまざまなフレームワークや生成的AIの支援などを活用して効率的に開発するための、Webブラウザから利用可能な統合開発環境です。 Googleは長年にわたってマルチプラットフォーム対応のアプリケーション開発に取り組んでおり、それがAngularFlutter、Firebase、そしてGoogle Cloudなどに反映されてきました。 Project IDXは、そうした同社のマルチプラットフォームアプリ開発をさらに前進させるために実験的に始

    Googleが「Project IDX」発表。生成的AIが支援するマルチプラットフォーム、フルスタックアプリ開発対応のWebIDE
    harajune
    harajune 2023/08/10
  • 世界標準のストック・オプション実務|増島雅和

    皆さんご存じのとおり、5月29日に国税庁から信託型ストック・オプションが給与所得に該当するとの解釈がでました。これと同時に国税庁は、税制適格ストック・オプションの権利行使価額を決めるために必要な付与契約時の株価算定ルールについて、新たな通達を設けてパブリックコメントにかけました。この通達は、ストック・オプションが税制適格となるために必要な「権利行使価格がストック・オプション付与時の普通株式の株価以上であること」という要件について、権利行使価格を配当還元方式の算定や、純資産価額方式により純資産から残余財産優先分配額を差し引いた額をベースに算定することができることを認めたもので、効きの良い(すごく儲かる)ストック・オプションを出せるようにしたものです。 大きなインセンティブを持つストック・オプションを税制優遇のもとで発行することができるようになりましたので、信託型ストック・オプションを導入して

    世界標準のストック・オプション実務|増島雅和
    harajune
    harajune 2023/06/08
  • ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ

    2022年11月にChatGPTが公開され、たった1週間で100万ユーザーを超えたのをきっかけに、GoogleBardMicrosoftのBing AI Chatなど、大規模言語モデルを利用したチャットAIが続々とリリースされています。チャットAIを研究しているセバスティアン・ラシュカさんが、チャットAIが実用化されるまでの研究の軌跡を重要な論文24個に絞って要約しています。 Understanding Large Language Models - by Sebastian Raschka https://magazine.sebastianraschka.com/p/understanding-large-language-models ◆目次 ・主要なアーキテクチャとタスク ・スケーリングと効率性の向上 ・言語モデルを意図した方向へ誘導する ・人間のフィードバックによる強化学習(

    ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ
    harajune
    harajune 2023/06/05
  • A Survey on Large Language Models for Recommendation

    Large Language Models (LLMs) have emerged as powerful tools in the field of Natural Language Processing (NLP) and have recently gained significant attention in the domain of Recommendation Systems (RS). These models, trained on massive amounts of data using self-supervised learning, have demonstrated remarkable success in learning universal representations and have the potential to enhance various

    harajune
    harajune 2023/06/03
  • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

    GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

    GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
    harajune
    harajune 2023/06/03
  • https://twitter.com/hrjn/status/1662777946988515330

    harajune
    harajune 2023/05/29
    セルクマ
  • 1600以上のAPIを適切に呼び出してAIに付き物の「幻覚」を大幅に減らす言語モデル「Gorilla」が公開される

    近年はChatGPTBardなどの対話型AIが相次いでリリースされ、人間の質問や呼びかけに対して非常に高精度な回答ができることで注目を浴びていますが、これらの対話型AIは時に真実ではないことを真実かのように話す「ハルシネーション(幻覚)」を起こすことがあります。そこで、膨大な数のAPIから適切なものを呼び出し、幻覚を大幅に減らすことができる言語モデル「Gorilla」を、アメリカ・カリフォルニア大学バークレー校とMicrosoft Researchの研究チームが公開しました。 Gorilla: Large Language Model Connected with Massive APIs https://arxiv.org/abs/2305.15334 Gorilla https://gorilla.cs.berkeley.edu/ GitHub - ShishirPatil/gori

    1600以上のAPIを適切に呼び出してAIに付き物の「幻覚」を大幅に減らす言語モデル「Gorilla」が公開される
    harajune
    harajune 2023/05/27
  • IFTTTやZapierのように複数アプリを連携して自動化できる「n8n」で「RSSで取得したウェブサイトのタイトル&URLをGoogle スプレッドシートに出力する」というワークフローを組んでみた

    無料&オープンソースで使える自動化サービス「n8n」を利用して、「GIGAZINERSSフィードから1日1回タイトルとURLを取得し、既存のGoogle スプレッドシートに出力する」という基的なワークフローを構築してみました。 n8n.io - a powerful workflow automation tool https://n8n.io/ GIGAZINEは以前にn8nを自サーバー上に構築しており、そのときの手順を記事化しています。n8nの導入方法を知りたい人はまず以下の記事をチェックしてください。 無料でIFTTTやZapierっぽく全自動連携できる「n8n」を自サーバー上に構築してみた - GIGAZINE まずはn8nにアクセスして「Add Workflow」をクリックします。 次に中央の+アイコンをクリック。 「On a schedule」をクリックします。 トリガーの

    IFTTTやZapierのように複数アプリを連携して自動化できる「n8n」で「RSSで取得したウェブサイトのタイトル&URLをGoogle スプレッドシートに出力する」というワークフローを組んでみた
    harajune
    harajune 2023/05/21
  • 大規模言語モデル間の性能比較まとめ|mah_lab / 西見 公宏

    StableLMのファインチューニングってできるのかな?と調べたところ、GitHubのIssueで「モデル自体の性能がまだ良くないから、ファインチューニングの段階ではないよ」というコメントがありまして。 シートの中身を見てみるlm-evalシートstablelm-base-alpha-7bは54行目にありまして、確かに他の言語モデルと比較するとまだまだな性能のようです。応援したいですね。 シートの列の意味それぞれの列の意味については推定ですが以下の通りです。 RAM 言語モデルのGPUメモリ消費量。 lambada(ppl) LAMBADAデータセットによる測定値。ロングレンジの言語理解能力をテストする(文章全体を読まないと答えられないタスクでの評価)。PPLはPerplexityという指標で、モデルの予測の不確かさを示す。PPLが低いほど、モデルの予測精度が高い。 lambada(acc

    大規模言語モデル間の性能比較まとめ|mah_lab / 西見 公宏
    harajune
    harajune 2023/04/28
  • Design thinking was supposed to fix the world. Where did it go wrong?

    Design thinking was supposed to fix the world. Where did it go wrong? When Kyle Cornforth first walked into IDEO’s San Francisco offices in 2011, she felt she had entered a whole new world. At the time, Cornforth was a director at the Edible Schoolyard Project, a nonprofit that uses gardening and cooking in schools to teach and to provide nutritious food. She was there to meet with IDEO.org, a new

    Design thinking was supposed to fix the world. Where did it go wrong?
    harajune
    harajune 2023/04/10