タグ

ブックマーク / note.com (1,337)

  • 日本からアメリカのスタートアップにリモート勤務する方法|でいじ

    僕はアメリカのサンフランシスコベイエリアのスタートアップで働いています。稀に日に住む方から「どうすればアメリカのスタートアップで働けるか」というようなことを聞かれます。まずビザの話をすることが多いのですが、そういえばリモートで働くという選択肢もあるよなと思ったので、日からアメリカのスタートアップにリモート勤務することについて書いてみたいと思います。ソフトウェアエンジニアおよび関連する職種を想定しています。 前提として、僕は2社のスタートアップで合計6年働いています。1社目、2社目ともに採用に関わることがあり、中国、インド、ベトナム、ウクライナ、イスラエル、クロアチア、ドイツ、ブラジル、カナダ、アメリカ、アルゼンチン、日などの国からリモートで採用したメンバーと仕事をした経験があります。 アメリカのテック企業でリモート勤務するメリットとデメリット題に入る前に、そもそもアメリカ企業でリモ

    日本からアメリカのスタートアップにリモート勤務する方法|でいじ
  • 「今更」という呪いを捨てて、35歳で上京した話。|Miyu

    2022年8月18日。わたしは35年過ごした故郷の石川県を離れて上京した。 リモートワークになったことにより、東京を脱出して地方移住したというのはよくある話だが、その逆の話についてはあまり体験談やブログがない。 あれから一年が経ったので、30代で上京するまでの経緯から、一年を東京で過ごしてみて現在思うことまで、さまざまなことを思い出しながら綴っていこうと思う。 上京が叶わなかった20代地方出身者が上京するタイミングといえば、進学や就職。そのあとは転勤、転職結婚あたりが一般的だと思う。 生まれてからこれまで、石川県を出たことがなかったわたし。東京での暮らしには20代の頃から憧れていて、東京の求人を眺めては何度も検討したことはあったし、実際に応募したこともあった。 しかし今でこそ、コロナ禍を経てオンライン面談などがあるものの、当時はもちろんない。また現在は北陸新幹線が開通し、東京までは2.5

    「今更」という呪いを捨てて、35歳で上京した話。|Miyu
  • GitHub Copilotを使いこなしてプログラミングの生産性を上げる大切なコツ|erukiti

    皆さんはGitHub Copilotを使っていますか?VSCodeやIDEに拡張を入れると、生成AIとペアプロのようなことができるという、アレです。 最近はこれがないと仕事ができない。なかった時代を思い出せないという人が増えています。プログラミングの生産性に明確に差が生まれます。僕もその口です。 ただ、GitHub Copilotを使いこなせていないという話も度々聞きます。Copilotが提案してくれるコードが微妙で役に立たないというような感じです。 その差はどこにあるのか?を知りたくて6/24に試しにCopilotを使った動画を撮ってみました。実践的なCopilot実演動画というのはすごく珍しいらしく、GitHub dockyardというコミュニティの竣工イベントに登壇してみないか?というお声がけをいただいたので、8/5にGitHub Copilotを使いこなせるとどうなるのかというライ

    GitHub Copilotを使いこなしてプログラミングの生産性を上げる大切なコツ|erukiti
  • データマーケティングの強い味方!?BigQueryと大規模言語モデル(LLM)の統合で始める検索意図分析の事例|田口 信元

    データマーケティングの強い味方!?BigQueryと大規模言語モデル(LLM)の統合で始める検索意図分析の事例 初めまして、Ubie Product Platformのグロースチームでエンジニアをしてる田口です。「健康が空気のように自然になる世界」を目指し、症状検索による発症から受診までのサポートするサービス症状検索エンジン「ユビ―」を提供しています。 さて、サービスを成長させる上で、ユーザーの行動を理解することが不可欠です。ユーザーが何を求め、どのようにサービスを利用しているのかを知ることで、サービスの満足度を向上させるための改善策が見えてきます。 しかし、大規模なウェブサイトの場合、分析すべき検索クエリが膨大になっているという課題がありました。 今回は、ML.GENERATE_TEXTを用いてプロンプトベースのデータパイプラインを作り、ユーザーの検索意図分析を行ってみた事例を紹介します

    データマーケティングの強い味方!?BigQueryと大規模言語モデル(LLM)の統合で始める検索意図分析の事例|田口 信元
  • LINEの3.6B言語モデルで遊んだら爆笑した|shi3z

    LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") tokens = model.generate( input_ids.to(device=model.device), min_length=50, max_length=300, temperature=1.0, do_sample=True, pad_token_id=tokenizer.pad_token_i

    LINEの3.6B言語モデルで遊んだら爆笑した|shi3z
  • 親の世代に比べて爆上がりした読書生活の質|ふろむだ@分裂勘違い君劇場

    この30年で、読書生活は、想像をはるかに超えて豊かになった。 たとえば『謎の独立国家ソマリランド』を読んでいるとき。 「首都ハルゲイサからベルベラに向かった」とあるので、Google Earthで検索すると、そのあたりの地形がすぐに見れる。 親の世代でも紙の地図で調べることはできたが、手間がかかりすぎて、いちいち調べる気にならなかった。 紙の地図は、ズームアップもままならないし、衛星画像もしょぼいし、3Dであたりの地形を見渡すこともできない。しかも情報が古い。 タイパ悪すぎである。 これに対し、我々は、現地の街の雰囲気すら360映像をぐるぐる回しながら見ることができる。 たとえば、「ベルベラってどんな雰囲気の街なんだ?」と思って、Googleストリートビューで見れる。 たったこれだけで、めちゃめちゃ読書体験の質が上がる。 この読書体験の質の向上は、次の3つの要因によって起きた。 (1)地図

    親の世代に比べて爆上がりした読書生活の質|ふろむだ@分裂勘違い君劇場
  • 「デザイナーこそ、スプレッドシートに強くなれ」の意味するところ|鷹野 雅弘

    「デザイナーこそ、スプレッドシートに強くなれ」とずっと言い続けています。先日、とあるセミナー(#D2デザインダンジョン)で発したところ、「具体的にはどういうことでしょうか?」と質問いただきました。 よい機会なのでまとめてみました。重要なのは、スプレッドシートは数字はもちろんだけど、数字以外でも使いますよね、ということです。 なお、この記事では、次をまとめて「スプレッドシート」と記します。 Excelデスクトップ版、オンライン版) Google スプレッドシート スプシ 表計算 Apple Numbers 「スプシ」という言葉には、なかなか慣れません… スプレッドシートは「思考の道具」である私自身、「マインドマップ」はよく使います。 マインドマップは思考を“発散”するには向いていますが、“収束”には不向き。たとえば、異なる“枝”のアイテムの関係性を表現できません。 詳しくは、こちらの記事に

    「デザイナーこそ、スプレッドシートに強くなれ」の意味するところ|鷹野 雅弘
  • フェディバース (Fediverse) ことはじめ|Takehiko Ono

    ここ最近「フェディバース (Fediverse)」という言葉を聞かないでしょうか。聞きませんか、聞きませんよね…。しかし目下進行中のTwitterの大騒動も手伝って、いま徐々に盛り上がりを見せている分野なので、これを知っておけば大丈夫。なことをまとめます。 まったくもって知らないよ。という人にも極力分かるように、の説明ですので細かなところは端折ったり、平易化していることはご了承ください🙇‍♂️。 「分散型」SNSいまの世の中、Twitter・Facebook・Instagram・TikTokなど、挙げればキリがないですが数多くのSNSが存在します。 これらは「中央集権型」と言われる仕組みのもので、管理者はTwitterだったらX社のように1つで、良くも悪くもその中央管理者の意思決定でやりたい放題に出来てしまいます。また、各SNSとの繋がりはなく独立したシステムです。 それに対しフェディバ

    フェディバース (Fediverse) ことはじめ|Takehiko Ono
  • ゼルダの伝説 Tears of the Kingdomが取り戻した「アタリマエ」だった3Dゼルダの魅力|じーくどらむす

    ゼルダの伝説 Tears of the Kingdomを、100時間かけてクリアした。その時の感動は忘れがたく、プレイヤーとしての満足感とともに、一人のゲームクリエイターとして、「こんなものを見せられて、俺はこの後いったい何を作ればいいんだ?」と、打ちのめされる感覚すら覚えた初めての体験だった。 Tears of the Kingdom ようやくクリアしました。 完全に打ちのめされました。 — じーくどらむす/岩翔 (@geekdrums) June 3, 2023 まずこの記事ではネタバレはしない。ネタバレが含まれる批評については、別記事に分けたうえでそのリンクを貼るので、未クリアの方も安心して読み進めてほしい。 ただそうなると、絶賛部分がほとんどネタバレ含む別記事に取られ、道中の体験を記す稿においては「自分はこうじゃない方が良かった」という、いわゆるnot for meな点にも言及

    ゼルダの伝説 Tears of the Kingdomが取り戻した「アタリマエ」だった3Dゼルダの魅力|じーくどらむす
  • プレミアムモルツにみる、キラキラ広告と孤高の天才クリエイターの終焉|Yuka Kudo

    この動画を見つけた発端は、大好きな2コマ漫画作家である犬犬さん(@inu_eat_inu)のTwitterでした。子育ての面白さや大変さをコミカルな2コマ漫画で配信してくれる犬犬さんが、この動画の企画に関与しているというツイート。最初はクスリと笑いながら軽い気持ちで見た動画でしたが、だんだんと重大なことに気づき始めました。 広告戦略とクリエイターの役割が、遂に大きく転換している。 既に色々な研究者やマーケッターの皆さんが提案し、提唱してきたことなので今更感はありますが、日の広告の始祖であり牽引者たるサントリーがこの動画を公開したことで、遅ればせながら私もガツンと気付かさました。このnoteでは私なりの気づきをまとめてみます。 偉大な広告企業サントリーとキラキラ広告サントリーといえば日の広告の歴史を作ってきた企業であり、広告によって日文化を開拓し、日人を啓発してきた会社であること

    プレミアムモルツにみる、キラキラ広告と孤高の天才クリエイターの終焉|Yuka Kudo
  • 四畳半のオフィスで70億パラメータのLLMを事前学習した話|Lightblue

    はじめにこんにちは、Lightblueの樋口です。 大規模言語モデル(LLM)は大変注目を集めていますが、日語で事前学習された公開モデルは限定的です。LLMの事前学習は大きなコストがかかるとされており、公開されているモデルは海外のビッグテックが中心で、国内では2件しか例がありません。 ■サイバーエージェント OpenCALM GPT (small, medium, large, 1.4b, 2.7b, 6.8b) 日Wikipedia + Jpanese mC4+ Japanese CC-100 ■rinna rinna GPT GPT (xsmall, small, medium, 1b, neox-small, neox-3.6b) 日Wikipedia + Japanese CC-100 (1b 以降のモデルではさらに Japanese mC4 を追加) その他、日

    四畳半のオフィスで70億パラメータのLLMを事前学習した話|Lightblue
  • llama2のファインチューニング(QLORA)のメモ|Kan Hatakeyama

    2023/11/13追記以下の記事は、Llama2が公開されて数日後に書いた内容です。 公開から数ヶ月経った23年11月時点では、諸々の洗練された方法が出てきていますので、そちらも参照されることをおすすめします。 (以下、元記事です) 話題のLamma2をファインチューニングします。 QLoRAライブラリを使うパターンと、公式推奨の2つを試しました。前者が個人的にはオススメです。 前提Hugging faceで配布されている公式のモデルが必要です。以下を参考に、ダウンロードしておきます。 データセット作成 (7/20 15:20追記 設定ミスってたので修正しました) test.jsonを適当に作ります。 [ { "input": "", "output": "### Human: 富士山といえば?### Assistant: なすび" }, { "input": "", "output":

    llama2のファインチューニング(QLORA)のメモ|Kan Hatakeyama
  • Google Colab で Llama 2 を試す|npaka

    Google Colab」で「Llama 2」を試したので、まとめました。 1. Llama 2「Llama 2」は、Metaが開発した、7B・13B・70B パラメータのLLMです。 2. モデル一覧「Llama 2」は、次の6個のモデルが提供されています。 (hfでないモデルも存在) ・meta-llama/Llama-2-70b-hf ・meta-llama/Llama-2-70b-chat-hf ・meta-llama/Llama-2-13b-hf ・meta-llama/Llama-2-13b-chat-hf ・meta-llama/Llama-2-7b-hf ・meta-llama/Llama-2-7b-chat-hf 3. 利用申請「Llama 2」を利用するには、利用申請が必要です。 (1) 公式のMetaのフォームから利用申請。 数時間後に利用許可のメールがきます。 (

    Google Colab で Llama 2 を試す|npaka
  • コード不要論からコード表現への回帰 - デベロッパーツールの現在|Seiji Takahashi@ベースマキナ

    皆様、ChatGPTでCode Interpreterの機能がリリースされましたがお使いになりましたか? 僕は大変有りがたーく日常使いさせて頂いており、活用方法について各方面のご意見を伺いたいですが、その話はさておき… こうした劇的な開発体験の変化が予感されると、度々繰り返される議題の1つが「エンジニアやコードの不要論」かと思います。 私自身がローコードツールを提供している会社の経営者なのですが(ヒューマンエラーを減らせる管理画面構築SaaS「ベースマキナ」をよろしくお願いします!)、この類の議論の盛り上がりと日頃情報を追っている最新のツール群との間を照らすと、ギャップを感じます。 端的に言うと、少なくともここ1年くらいで新しく登場するデベロッパー向けのツールを見ていると、コードが不要になる場面が増えると思いきや、逆にコードをしっかり書くツールが増えてきたな、という印象を持っています。 D

    コード不要論からコード表現への回帰 - デベロッパーツールの現在|Seiji Takahashi@ベースマキナ
  • Llama.cpp で Llama 2 を試す|npaka

    「Llama.cpp」で「Llama 2」を試したので、まとめました。 ・macOS 13.4.1 ・Windows 11 前回 1. Llama.cpp「Llama.cpp」はC言語で記述されたLLMのランタイムです。「Llama.cpp」の主な目標は、MacBookで4bit量子化を使用してLLAMAモデルを実行することです。 特徴は、次のとおりです。 ・依存関係のないプレーンなC/C++実装 ・Appleシリコンファースト (ARM NEON、Accelerate、Metalを介して最適化) ・x86アーキテクチャのAVX、AVX2、AVX512のサポート ・Mixed F16/F32精度 ・4bit、5bit、8bit量子化サポート ・BLASでOpenBLAS/Apple BLAS/ARM Performance Lib/ATLAS/BLIS/Intel MKL/NVHPC/AC

    Llama.cpp で Llama 2 を試す|npaka
  • 関係性から考えるものの見方・・・社会構成主義|shinshinohara

    (ずいぶんと堅苦しい名前だけれど)社会構成主義の考え方、結構面白い。 アメリカでは中絶問題で世論が真っ二つに割れている。賛成派と反対派で議論すると、互いに相手の主張のおかしいところを攻撃し、自分の主張の正しさを訴える。話は平行線に終わり、関係性は断絶したまま。ところが。 リクツを戦わせるのをやめ、なぜ自分が中絶に反対するようになったのか、あるいは賛成するようになったのか、そのきっかけとなった個人的体験を語ってもらったところ、お互いに「ああ、そういう体験があると、そういう意見になるのは当然だよな」と理解と融和が進んだという。 この現象は興味深い。リクツというのは一見論理的で、論理的だからこそ普遍的なものだという思い込みがある。その普遍的なリクツから言えば相手の意見は非常におかしく矛盾に満ちていて、自分の理論こそ正しい、としか思えない。しかし相手は相手で同じことを考えている。ここに断絶が生じて

    関係性から考えるものの見方・・・社会構成主義|shinshinohara
  • より良い意思決定の支援をするための"効果検証 虎の巻"|Mercari Analytics Blog

    今回は、メルカリのAnalyticsチームの中でも主にビジネス分析やマーケティング分析を行うGrowth Analytics Teamからの記事です。 Analyticsチームは、以下のミッションを通じて事業に貢献するチームです。 Provide actionable insights and help people make better decisions(実行可能なインサイトを提供し、より良い意思決定の支援を行う) Democratize data and empower everyone with analytics(データの民主化を推し進め、皆の分析力を高めていく) そんなAnalyticsチームで、"効果検証 虎の巻"なるものを導入しました。主な狙いは以下の2点です。 Analyticsチーム内の暗黙知を集約して言語化・浸透させることによる、メンバーのアウトプットの質の向上 誰

    より良い意思決定の支援をするための"効果検証 虎の巻"|Mercari Analytics Blog
  • ブラックボックスになりがちな開発チームの内部状況を指標を用いて可視化する|mtx2s

    自社ソフトウェアプロダクトを内製する組織であっても、開発チームがそれをどうやって作り上げているか、開発者ら以外にとってはブラックボックスであり、不可視です。それだけに、開発チームのパフォーマンスや内部状況の良し悪しは、各々の主観や興味によって、不統一な認識を持ってしまうことも多いでしょう。そしてそのような認識のばらつきは、開発する当人たちにとっても実は同じです。 しかし、例えブラックボックスであっても、自動車のダッシュボードのように様々な指標によってその内部が数値化され、可視化されていれば、チームのパフォーマンスに統一的な認識を持たせやすくなります。 記事では、どのような指標を可視化すべきか、その代表的なものについて取り上げます。 リードタイム(開発、製造)リードタイムは、開発項目ごとの作業期間を計測したもので、短いほど優れていることを示す指標です。計測対象となるプロセス全体を「開発」と

    ブラックボックスになりがちな開発チームの内部状況を指標を用いて可視化する|mtx2s
  • 何十回も読むくらい仕事でお世話になりすぎている本2冊について書いてみました。|松永克輝|GRIZZLLY.DESIGN

    グリズリーデザインでは当の意味でお客様のお手伝いするために常日頃から沢山の情報に触れるようにしています。 その情報源の中の1つである、そして特に僕たちの仕事を支えてくれている2冊について書きたいと思います。 デザイナーだからデザインだけしておけばいいのではなく、ビジネスやマーケティング、ブランディングについて知っていないと当の意味でお客様の力になることはできないのではないかと考えています。 こう考える理由としては、僕自身が前職でデザイナーではなくマーケティングを意識した商品開発のお仕事をさせていただいていたことにあると思います。 そもそもなぜから学ぶのかグリズリーデザインではネットの有象無象の記事や情報ではなく、や実績を出されている方の講座やセミナーから学ぶことを大切にしています。 やはり人間、学ぶ時間は限られており、すべての情報にタッチすることはできません。 とはいえ、読んで

    何十回も読むくらい仕事でお世話になりすぎている本2冊について書いてみました。|松永克輝|GRIZZLLY.DESIGN
  • Jupyter で公共交通データを可視化する|NAVITIME_Tech

    こんにちは、ふた月です。 ナビタイムジャパンで主にサーバーサイドのシステム開発や公共交通データの運用改善を担当しています。 今回は公共交通データの運用改善を進める中で、学習や調査向けのデータ可視化に Jupyter を使用した事例を紹介します。 Jupyter とはJupyter はインタラクティブにプログラミングやデータ分析を行うための Web アプリケーションです。Python で利用されることが多いですが、数十のプログラミング言語に対応しています。JupyterLab や Visual Studio Code を利用してローカル環境で利用する他、 GCP、 Azure といったクラウド環境上でも動作環境が提供されています。機械学習でよく用いられている Google Colaboratory にも Jupyter が利用されています。 向き合いたい課題当社では経路探索や案内情報の提供の

    Jupyter で公共交通データを可視化する|NAVITIME_Tech