並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 440件

新着順 人気順

GCPの検索結果81 - 120 件 / 440件

  • ギークでスマートな人達が活躍する組織を支える3つのポイント - エムスリーテックブログ

    長女と2人で水族館に行ったときの写真。帰路のバスで「2人でまた来たいねえ」と言われて泣きました。例のごとく本文とは全く関係がありません。 はじめに こんにちは。最近、ダンダダンのアニメ化が発表され、嬉しい気持ちのエムスリー エンジニアリンググループ VPoE 河合(@vaaaaaanquish)です。 皆さんは『Hit Refresh』という書籍をご存知でしょうか。 現Microsoft CEOであるサティア・ナデラの自伝であり、OpenAIやGitHubと現在"Hit"を続けているMicrosoftに成る過程において、会社を"Refresh"してきた物語が書かれています*1。 その中にあるサティア・ナデラのテクノロジー文化をリスペクトした一節が、私は大好きです。 テクノロジーは魅力的だが、 それ以上に魅力的なのがそれを設計した人達の深いこだわりだ。 実際にサティア・ナデラがMicroso

      ギークでスマートな人達が活躍する組織を支える3つのポイント - エムスリーテックブログ
    • HPE、ジュニパーネットワークスを買収 約2兆円で

      この記事は新野淳一氏のブログ「Publickey」に掲載された「ジュニパーネットワークス、HPEによる買収合意を正式発表、約2兆円で」(2024年1月10日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 米Juniper Networks(以下ジュニパー)と米Hewlett Packard Enterprise(HPE)は、ジュニパーがHPEに約140億ドル(1ドル140円換算で1兆9600億円)で買収されることに合意したと発表しました(HPEの発表、ジュニパーの発表)。 ジュニパーをHPEが買収する交渉が行われていることはすでに報道されており、ほぼその報道通りに買収が決定しました。 HPEはこの買収により、ネットワーク分野での充実した製品群を提供できるようになると、プレスリリースで次のように説明しています。 Together, HPE and Juniper w

        HPE、ジュニパーネットワークスを買収 約2兆円で
      • 【Go/GCP】ライブゲーム「あてっこ!ぷにまるず」を支えるバックエンド技術 - Mirrativ Tech Blog

        バックエンドエンジニアの makino です。本日は、先日リリースしたライブゲーム「あてっこ!ぷにまるず」のバックエンド技術について紹介します。 ライブゲーム「あてっこ!ぷにまるず」について ライブゲームとは、Mirrativアプリ上で遊べるゲームであり、配信中のゲームに視聴者が介入できることが特徴です。 「あてっこ!ぷにまるず」では、配信中に視聴者を招待して一緒にGvGバトルを楽しむことができます。 開発スタッフがプレイした動画をご紹介📺✨ バウンド数に注目👀⁉ こんなに連鎖できたら気持ちよさそう…🐰💕 動画を参考にレッツ❗チャレンジ💁 SNSスタッフは2回バウンドできました🙌 まだまだ道のりは険しい…🏔 pic.twitter.com/YdZMRKxbgv— 【公式】あてっこ!ぷにまるず (@punimals_jp) 2023年7月18日 Mirrativのライブゲームは

          【Go/GCP】ライブゲーム「あてっこ!ぷにまるず」を支えるバックエンド技術 - Mirrativ Tech Blog
        • 分散トレーシングを使ってパフォーマンス改善をやってみたら、レスポンスタイムを2割近く改善できたお話 - Tabelog Tech Blog

          目次 目次 はじめに そもそもシステム運用改善チームとは何か? なぜアプリAPIのパフォーマンス改善が必要になったのか? どうやって改善箇所を見つけるのか? 分散トレーシングを使って、店舗詳細APIを細かく分析する 計測結果の見方 計測結果から分かったこと 計測結果から見つけたポイントに改善を実施していく コースに紐づくクーポンの取得 口コミを取得する処理と公開画像数のカウント ユーザーごとの公開口コミ投稿数の合計数カウント 全体での改善効果はどうだったか? パフォーマンス改善の影響 ユーザー体験が向上した 今後の食べログ成長に備えたシステム上の余裕ができた 食べログの分散トレーシングを使って改善を実施してみてよかったこと おわりに はじめに こんにちは。食べログ開発本部 ウェブ開発1部 システム運用改善チームの @4palace です。 今回は、私の所属するシステム運用改善チームが食べロ

            分散トレーシングを使ってパフォーマンス改善をやってみたら、レスポンスタイムを2割近く改善できたお話 - Tabelog Tech Blog
          • 「僕が今のピクシブのAWSやGCPの形を作ったと言っても過言ではない」 クラウド推進の生き字引が語る、これまでの取り組み

            完全招待制のオンラインカンファレンス「PIXIV MEETUP 2023」。「創作活動を、もっと楽しくする。」というミッションを遂行するために、メンバーが普段行っている業務について、自らの言葉で語り、その想いと技術を共有する場です。sue445氏は、 ピクシブ社における、パブリッククラウド活用の取り組みについて発表しました。全2回。前半は、sue445氏が入社後に取り組んだ、GitLab CIのオートスケール化やTerraform導入などについて。 登壇者の自己紹介 sue445氏:「pixiv Cloud Journey」というタイトルで発表させてもらいます。 こちらの発表資料ですが、先ほど「X」にハッシュタグ付きで流しているので、後から見返したいという方は、そちらのURLをご覧ください。 自己紹介させてもらいます。末吉剛といいます。SNSでは「sue445(すえよんよんご)」というID

              「僕が今のピクシブのAWSやGCPの形を作ったと言っても過言ではない」 クラウド推進の生き字引が語る、これまでの取り組み
            • Document AIを巡る技術とLayerXにおける可能性 - LayerX エンジニアブログ

              初めまして。機械学習エンジニアの島越@nt_4o54です。現在はMLチームで日々、バクラクシリーズで用いられているAI-OCR機能の改善や新規機能の開発などを行なっています。 7月はLayerXエンジニアブログを活発にしよう月間ということで、自分からは表題にもある通り、「Document AI」と呼ばれる技術についての紹介と、またLayerXにおいてどういう応用先があるのかというお話をさせていただこうと思います。 ※ 同名のDocument AIというGCPのサービスがありますが、今回は一般的なDocument AIの話になります。 Document AIとは Document AIに用いられる技術 Optical Character Recognition (OCR) Document Classification Layout Analysis Document Parsing Tab

                Document AIを巡る技術とLayerXにおける可能性 - LayerX エンジニアブログ
              • 【主催イベント】生成AIセキュリティ対策事例共有会 /Azure OpenAI 最新情報セミナー特別同時開催! - TECH Street (テックストリート)

                参加申し込みはコチラ techplay.jp ※外部サイトへ遷移いたします。 こんな方におすすめ ・生成AIを活用した開発に携わるITエンジニア ※その他、本テーマに興味関心のある方 開催概要 生成AIセキュリティ対策事例共有会 Azure OpenAI 最新情報セミナー特別同時開催! ITテクノロジーに関する様々な職種やテーマで「他社・他の人ってどうしてるの?」を学ぶ、 TECH Streetコミュニティ恒例の事例・知見共有勉強会。 今回の知見共有会は国内でも生成AIを活用したサービスや社内利用が増えてきた今だからこそ学びたい生成AI関連のセキュリティ対策を中心としたセミナーと、実際に事業会社内で生成AIを活用したプロジェクトに携わる2社のエンジニアが集まり、各社の開発事例とセキュリティ対策をどのように実装しているかについて発表します。 今回も質問コーナーをたっぷり設けますので、いろんな

                  【主催イベント】生成AIセキュリティ対策事例共有会 /Azure OpenAI 最新情報セミナー特別同時開催! - TECH Street (テックストリート)
                • NetworkPolicyでtrafficを制御しよう - enechain Tech Blog

                  はじめに こんにちは。enechainのPlatform Engineering Deskで働いているsoma00333です。 enechainではproductのdeploy先としてGKEを採用しており、Platform Engineering DeskではKubernetes Clusterの運用業務を行っています。 enechainは「エネルギーの取引所を作る」というmissionを持っており、productも増えてきています。 Platform Engineering Deskも今後ますますsecurityに力を入れていく予定です。 前回は、Platform Engineering Deskのsecurityに関する取り組みの一例として、Pod Security Admissionを紹介しました。 ※ Pod Security Admissionの紹介 今回は、引き続きsecuri

                    NetworkPolicyでtrafficを制御しよう - enechain Tech Blog
                  • エンジニア1人で4年間プロダクトを開発。ミニマムな体制で効率的な価値検証を行う知見 - what we use(技術スタックデータベース)

                    「サービスがPMFするまで、どのような体制で開発を進めるか」というテーマに、わかりやすい正解は存在しません。企業の創業メンバーの内訳や各々のスキル、会社の資金、世の中や他社の動向など、さまざまな変数が「開発組織のあり方」に影響します。CTOやVPoEといった企業の技術リーダーたちは、そうした変数を鑑みつつ自社の方針を決める重要な役割を担っています。 営業活動支援のSaaS事業およびコンサルティング事業を展開するSALESCORE株式会社のCTOを務める成澤克麻さんは、MVP開発開始から4年間は「エンジニア1人でフルスタックにサービス開発すること」を選びました。そして事業が軌道に乗った現在は方針転換をし、人を増やしながらスケール可能な体制作りを目指しているのです。今回は成澤さんに、SALESCOREがこれまで選択してきた開発組織の方針について聞きました。 KPIを可視化し、営業組織の実行力を

                      エンジニア1人で4年間プロダクトを開発。ミニマムな体制で効率的な価値検証を行う知見 - what we use(技術スタックデータベース)
                    • New RelicのSLOモニタリング+バーンレートアラートをCDK for Terraform(cdktf)でIaC管理する - Uzabase for Engineers

                      こんにちは、ソーシャル経済メディア「NewsPicks」でSREをしている飯野です。 今回はSREで行ったNew RelicをCDK for TerraformでIaC管理する話を紹介したいと思います。 SLOモニタリングをSREチームだけで行うのは難しい CDK for Terraformとcdktf-newrelic-provider 追記 IaCで作成する内容 CDK for Terraformで実装していく -1. cdktf init 0. @cdktf/newrelic-provicerの初期化 1.DataNewrelicEntityの作成 2.ServiceLevelの作成 3.AlertPolicyの作成 4.AlertCondition(バーンレートアラート)の作成 5. NotificationDestinationの作成 6. NotificationChannel

                        New RelicのSLOモニタリング+バーンレートアラートをCDK for Terraform(cdktf)でIaC管理する - Uzabase for Engineers
                      • Google Cloud Operations Suite で実現する "頑張らないオブザーバビリティ" - KAYAC engineers' blog

                        SRE チームの市川恭佑です。 先日、CloudNative Days Tokyo 2023 のプロポーザルを提出したのですが、残念ながら採択に至らなかったので、今回は宇宙最速の(?)供養エントリになります。 シェア・投票など、ご応援をくださった皆様にはこの場でお礼を申し上げます。ありがとうございました。 event.cloudnativedays.jp 背景とか、経緯とか 筆者は、カヤックの SRE チームにちょうど2年ほど在籍しています。とは言っても半年ぐらいは学生アルバイトだったので、正社員としては1年半ほどです。カヤックに入る前も、いくつかの会社で IT エンジニアとしてインターンやアルバイトをしていました。 という訳で、何だかんだ仕事で使うプログラムを書き始めてトータル4年半ほどになりますが、そのうち3年半ほどは全て Amazon Web Services(AWS)でホストされる

                          Google Cloud Operations Suite で実現する "頑張らないオブザーバビリティ" - KAYAC engineers' blog
                        • 【コラム】GA4標準レポート、探索レポート、Looker Studioの使い分け - コラムバックナンバー - アナリティクス アソシエーション

                          【コラム】GA4標準レポート、探索レポート、Looker Studioの使い分け 株式会社JADE 郡山 亮 発信元:メールマガジン2023年9月27日号より こんにちは! 株式会社JADEでコンサルタントとして活動している郡山と申します。 普段はお客様がGA4を活用するための様々なコンサルティング、サポートをしています。 また、自社で開催しているウェビナーや、Search Central Live TokyoなどでGA4を活用するためのナレッジを発信しています。 TwitterやGoogle アナリティクス コミュニティでも個人的に活動していますので、どこかでご縁があればよろしくお願いいたします。 今回は「用途や目的に応じて、GA4のデータを、どのようなレポート・機能で集計すると使いやすいのか」というお話をさせていただきます。 GA4でデータを集計する機能や手法は様々あります。 どのよう

                            【コラム】GA4標準レポート、探索レポート、Looker Studioの使い分け - コラムバックナンバー - アナリティクス アソシエーション
                          • 全社データ活用基盤をTreasureDataからBigQueryへ移行しました - Leverages データ戦略ブログ

                            はじめに こんにちは。データエンジニアリンググループの森下です。今回は、私がプロジェクトマネージャーとして約3年間かけて実施した、TreasureDataからBigQueryへの全社データ活用基盤移行プロジェクトについてお話します。このプロジェクトは、全社で1日あたり数千件のクエリが実行されるデータ基盤を移行するという大規模なもので、関係者の数は200〜300人に上りました。プロジェクト期間中は、データ活用基盤の技術調査から始まり、関係者への説明や調整、データ移行、クエリ移行、ETLやReverse ETLに使用する各種ツールの導入など、本当に多くのタスクがありました。 プロジェクト背景: TreasureData導入とその課題 TreasureData導入の背景 2024年時点ではGoogle BigQueryを使用していますが、その前の環境が導入された背景を説明します。 2018年12

                              全社データ活用基盤をTreasureDataからBigQueryへ移行しました - Leverages データ戦略ブログ
                            • 全社横断データ基盤における部分的セルフサービス化への取り組み - Sansan Tech Blog

                              研究開発部 Architect Groupの大澤秀一です。ブログ寄稿は約2年ぶりです。半年ぐらい前からランニングを始めて、先日フルマラソン完走してきました。おかげで足はボロボロです(笑)。 さて、私たちはBigQueryを中心とした、全社横断データ基盤(以下、データ基盤)の構築とデータ基盤をもとに社内のデータ利活用を推進しています。データ利活用の推進についてチームメンバーが最近登壇した資料をご参照ください。 speakerdeck.com speakerdeck.com データ基盤を拡大していくにあたって、社内の利用者から自部門のデータをアップロードしてデータ基盤上でアドホックに分析したいという要望がありました。また、利用者自身が自由にテーブルとビューを作りたいという声があがりました。 今回は、そうしたことができる環境を構築したので仕組みについてご紹介します。 なお、本記事はSansan

                                全社横断データ基盤における部分的セルフサービス化への取り組み - Sansan Tech Blog
                              • AWS環境を可視化できるソリューション【Lucidscale】を使って構成図を自動生成してみた | DevelopersIO

                                こんにちは。 繁松です。 はじめに AWS,Azure,GCPなどのクラウド環境を可視化できるサービス「Lucidscale」を使ってAWSの構成図を自動生成してみたのでブログにしました。 Lucidscaleを使うことで以下のような構成図を自動で生成することができます。 やってみた アカウント作成 Lucidscaleのアカウントを作成します。 https://lucidscale.com/ja 料金 2週間は無料で利用できます。 無料期間以降も継続利用する場合の料金は以下です。 インディビジュアルプラン(個人利用プラン) 1ユーザー(作成者):¥269,000/年 チームプラン(チーム利用プラン) 1ユーザー(作成者);¥269,000/年 1ユーザー(エクスプローラー):¥54,900/年 https://lucid.app/ja/pricing/lucidscale#/pricin

                                  AWS環境を可視化できるソリューション【Lucidscale】を使って構成図を自動生成してみた | DevelopersIO
                                • GitHub ActionsとGoogle CloudのOIDCの仕組みを理解する

                                  GitHub Actions から AWS や GCP などのクラウドリソースを操作するときは、 OIDC を使用することが主流だと思いますが、手順に沿って設定はできるもの仕組みがよく分かっていない方も多いと思います。 この問題は厄介で、様々な"分からない"が絡まりあって生まれている問題だと思います。 例えば、 どんな仕組み・流れでAWS・GCPを操作できるようになっているのか分からない(私) そもそもなぜOIDCを設定すると嬉しいのか分からない(私) 色々な設定をしたけど何をしているのか分からない(私) などが挙げられると思います。 これらを解消し、OIDCを利用したGitHub ActionsとGCPの連携の流れ・仕組みを探求するのがこの記事の目的です。 ※Google CloudのことはGCPと書きます。 ※記事で触れないこと GitHub Actions - Google Clou

                                    GitHub ActionsとGoogle CloudのOIDCの仕組みを理解する
                                  • 最近流行りのRemixとCloudflareをキャッチアップするために一個アプリ作った話

                                    TL;DR 無駄な買い物チェッカーを作ったよ!緊急度,重要度,欲求度,代替可能度の4軸から無駄かどうかを判断するよ フロントエンドではRemixで開発、フォームライブラリはConformがよかったよ Cloudflareは最高でした。 はじめに どうも、やまぐちです。 エンジニアの皆さん、技術のキャッチアップってどうやってますか? とりあえずチュートリアルやってみますか? 技術ブログを読むだけで済ましていますか? この辺りどうもモチベーションが湧かないんですよね。チュートリアルやっても身についている感覚がないんですよ。 最近Xのタイムラインを眺めていると、React界隈では今はRemixが流行りらしいし、ついでにCloudflareも、安い、速い、便利、で個人開発でめっちゃナウくてイケてるらしいじゃないですか。 んー、モダンでナウい、イケてる技術スタックを使えるようになりたい!! そんな時

                                      最近流行りのRemixとCloudflareをキャッチアップするために一個アプリ作った話
                                    • コミュニティプラットフォームの投稿レコメンド機能を支える機械学習基盤 - Commune Engineer Blog

                                      こんにちは,コミューンで一人目の機械学習(ML)エンジニアとして働いている柏木(@asteriam_fp)です. 入社して5ヶ月ほど経ちましたが,今回漸く最近の取り組みを紹介できそうです.ML エンジニアは僕一人なので,専らの相談相手は ChatGPT 君の今日この頃です笑 はじめに コミューンでは,企業とユーザーが融け合うコミュニティサクセスプラットフォームである commmune を提供しています.今回のブログは先日のプレスリリースでも発表された投稿レコメンド機能を commmune に導入したので,その機能を裏側で支えている機械学習基盤に関する内容を紹介します. エンドユーザーに対して提供される機械学習システムを導入するのは初めての試みになり,まさにゼロからの出発なので,これから徐々に大きく育てて行く予定です! はじめに コミュニティプラットフォームにおける機械学習の可能性 投稿レコ

                                        コミュニティプラットフォームの投稿レコメンド機能を支える機械学習基盤 - Commune Engineer Blog
                                      • クラウドでもsuが出来る! GCPにPAM(特権管理)がついに登場

                                        はじめに Linuxの良い所の一つにsuやsudoと言った特権管理の仕組みがあります。普段は通常アカウントで入って、例えばインストールなどの特権作業が必要な時だけsu/sudoで一時的な権限昇格が可能ですし、/etc/pam.dで誰がどのユーザにスイッチ出来るかなどは細かく制御できます。 一方で、クラウドの権限管理は悩みの種で、誤操作が怖いので普段はRead Onlyの権限にしておきたいのですが、手軽に権限を昇格する方法がありません。なので、別の管理者ユーザを作って、そちらでログインしなおしたり、それを半自動化するCyberArkやBeyondTrustといったPAM系ソリューション、あるいは最近流行りのCIEM(PAM機能を持つもの)を導入する必要がありました。 Azureでは結構以前からPIM(Privileged Identity Management)がネイティブで組込まれており非

                                          クラウドでもsuが出来る! GCPにPAM(特権管理)がついに登場
                                        • AWS から OCI に移行してコストを約半額にした話 - Qiita

                                          OCIについて知らない方向け AWSは知ってるがOCIを知らないという方は取り急ぎ以下のようなページを読むとイメージが掴みやすいかと思いますのでリンクを貼っておきます。 本件では細かい用語の違いなどの説明は省略します。 OCIへの移行理由 今回移行した理由はコスト削減が最大の理由でした。 オンプレからAWSに移行したのは3年前の2021年2月で当時のドル円相場は約106円でした。 2021年のAWS移行当時、RDSのReserved InstancesとEC2のSavings Plansを3年で購入していました。(通常は1年などで購入されるケースの方が多いと思いますが、歴史のあるサービスなので急激なリソースの増減はあまり無さそうではと考えたためとなります。結果としては円が強いタイミングで安く買えて助かりました) 移行を検討し始めたのはRI/SPが切れる1年前くらいで、その時点のドル円レート

                                            AWS から OCI に移行してコストを約半額にした話 - Qiita
                                          • 関東大震災の朝鮮人虐殺追悼文をやめた小池百合子、なんと朝鮮人虐殺否定右派団体「そよ風」(毎年追悼式の隣で虐殺否定集会開催)の講師をしていた。(TBS『報道特集』6/8) - kojitakenの日記

                                            栃木県鹿沼市長選でも自公候補が負けた。新人同士の争いで立民候補が勝ったようだ。 鹿沼市長選で自公系敗北確実 - 茂木幹事長の地元栃木https://t.co/gCP64vudPG — 共同通信公式 (@kyodo_official) 2024年6月9日 あの保守が強かった北関東でもこういう結果が出る。 いや、先の衆院補選の島根1区もそうだが、地方でこれまで自民党が強かった地域だからこういう結果が出やすいのかもしれない。 問題は東京や大阪といった大都市だ。これらの大都市ではかつて革新都政や革新府政の時代を経験していてかつては革新政党が強かったが、それがいわゆる「リベラル」政党に引き継がれているわけではなく、第三極が強まり、特に大阪では維新の事実上の独裁体制が確固として築かれている。同様の経緯をたどりつつあったのが東京で、都ファが一時は都議会の第一党を占め、現在も自民に次ぐ第二党になっている。

                                              関東大震災の朝鮮人虐殺追悼文をやめた小池百合子、なんと朝鮮人虐殺否定右派団体「そよ風」(毎年追悼式の隣で虐殺否定集会開催)の講師をしていた。(TBS『報道特集』6/8) - kojitakenの日記
                                            • 共有するほど皆が得するモデルをつくりたい話 - 2024-06-17 - ククログ

                                              本業の傍ら、「クリアコードをいい感じにする人」として働いているたなべです。「クリアコードをいい感じにする人」とは何かについては過去に『「クリアコードをいい感じにする人」の採用を開始』という記事や採用情報の『「クリアコードをいい感じにする人」』にて解説されています。 今回はその活動の中で最近取り組んでいる「共有するほど皆が得するモデルをつくりたい」という取り組みを説明します。興味を持ってくれる人・助けてくれる人と話すきっかけになることも期待しているので、記事を読んで話を聞いてみたい・してみたいと思った方は sunao.tanabe@gmail.com 宛に連絡をください。 「共有するほど皆が得するモデル」とはなにか 「共有するほど皆が得するモデル」とは、ソフトウェアに関わる人が増えれば増えるほど、そのソフトウェアに関わる人が得をするという、関わる人の増加と得られる恩恵に正の相関がある状態のこ

                                                共有するほど皆が得するモデルをつくりたい話 - 2024-06-17 - ククログ
                                              • インフラ弱者にもわかりやすく Terraform についてまとめてみた - Qiita

                                                インフラもterraformも全くわからん人に向けて簡単にまとめてみました。 ここではクラウドインフラ(特にGCP)を例に説明します。 TL;DR AWSやGCPのようなクラウドインフラはコンソール画面からボタンをポチポチして扱うサービスを管理したり設定値を変更することができます しかしそれだと下記のような問題点があります 「いつ、誰が、どのような設定を変更したのか」が把握できない 新しい環境(ステージング環境など)を作成する際に、コンソール画面から手動で同じ手順を踏まないといけない ドキュメントが更新されていないと既存のインフラの環境を把握が困難 terraform を使えばインフラの設定をコードで管理することができます。それにより下記のようなメリットがあります。 コードで管理できるので変更の履歴を確認できる 1つ環境を作ってしまえば他の環境にも設定を使いまわせる(手動でポチポチしなくて

                                                  インフラ弱者にもわかりやすく Terraform についてまとめてみた - Qiita
                                                • Next.jsとGoを使っていきます - トレタ開発者ブログ

                                                  こんにちは、VPoEの北川です。 今回はトレタで現在使用している技術スタックについて紹介します。 創業時から稼働している予約・顧客台帳サービス「トレタ」から現在の注力事業のモバイルオーダーサービス「トレタO/X」までをあらためて振り返ってみると、まるで異なる技術スタックになっているので歴史的な背景などを辿りながら紹介していきます。 技術スタックの変遷 予約・顧客台帳「トレタ」 会社名にもなっている予約・顧客台帳の「トレタ」は創業当時から稼働している築11年ほどのシステムです。 サーバーサイドにはRubyとRubyOnRailsで作られた巨大なコードベースのAPIサーバーがあり、予約台帳のiOSアプリやウェブ予約などのWebアプリケーションなどが利用しています。 長年このモノリシックなシステムを成長させてきたので、以前からトレタを知ってくださっている人にはトレタはRubyの会社と認知されてい

                                                    Next.jsとGoを使っていきます - トレタ開発者ブログ
                                                  • Next.jsをFirebaseにデプロイしたら高額請求がきて貯金がなくなりかけた話 - Qiita

                                                    はじめに こんにちは!!@Sicut_studyです! クラウド破産しかけました!ギリギリ払えるくらいやばかったです!! 普段サービスを Firbese でデプロイしているのですが、この度自分でサービスをリリースした時に破産しそうになった話を共有していきます。 自分が使うためのサービスとみんなに利用してもらうためのサービスではこの点が大きく違うんだなとしみじみ感じたので、自分以外が使うサービスをリリースする方には参考になるかと思います 0. アラートは突然に とあるメールが自分のもとに届きました !?!??!??!??!?!!!?? やばいまだ11月始まって6日なのに予算の半分を使ってしまっただと!?! とくにリリースなどは行っていなかったのでなぜか今月になって請求額があがるようになっていました 仕事中にメールが来たのですが、気になりすぎてまったく集中できませんでした😅😅😅😅 1.

                                                      Next.jsをFirebaseにデプロイしたら高額請求がきて貯金がなくなりかけた話 - Qiita
                                                    • Fluentdのプラグインを作ってBigQueryにログを挿入するコストを1/3にした話 - pixiv inside

                                                      こんにちは。 機械学習チームにてレコメンドの改善を行っているgumigumi4fです。 この記事では、Fluentdにて収集したログをBigQueryに挿入する際に使用しているプラグインを置き換えることによって、高スループットかつ低コストを実現した話について紹介します。 背景 pixivではアクセスログやアプリケーションログ等をBigQueryに収集し、分析できるような仕組みを構築しています。 BigQueryへアクセスログを挿入する際はFluentdとそのプラグインであるfluent-plugin-bigqueryを用いて直接BigQueryへ書き込むようになっていたのですが、その際にログ欠損が起こることが問題となっていました。 ログの欠損はピークタイムで発生しており、そのピークタイムのログの流量は概ね毎秒30000logとかなり多く、実際Fluentdのworkerプロセスが1work

                                                        Fluentdのプラグインを作ってBigQueryにログを挿入するコストを1/3にした話 - pixiv inside
                                                      • Vision-Language Modelsを使った商品のトップ画像選定 - DROBEプロダクト開発ブログ

                                                        背景 結論 手法の検討 実験 実験概要 実験1 : 単純なPromptを投げる 実験2 : Promptを工夫してみる 実験3 : 間違った分類を回避するには? まとめ 参考文献 補足 DROBEで機械学習エンジニアをしております、藤崎です。 背景 商品のトップ画像はユーザーへの最初のタッチポイントとして機能し、購入を促進します。そのため、適切なトップ画像の選定は重要です。しかしながら、この選定は現在、手動に依存しており、複数の商品画像から最も効果的なものを選ぶ作業は、多大な時間と労力を消費しています。 商品の品揃えが拡大する中で、この作業のコストは切実な課題となっています。そこで、機械学習技術を用いてトップ画像の選別を自動化するアプローチを検討しています。これにより、商品登録時間の削減や業務の効率向上が期待されます。 本記事では、商品のトップ画像の自動選別に焦点を当て、画像分類手法を調査

                                                          Vision-Language Modelsを使った商品のトップ画像選定 - DROBEプロダクト開発ブログ
                                                        • AWSでElastic Cloudを利用する 2024年版(構築編) - Taste of Tech Topics

                                                          こんにちは、Elastic認定資格3種(※)を保持しているノムラです。 ※Elastic社の公式認定資格(Elastic Certified Engineer / Elastic Certified Analyst / Elastic Certified Observability Engineer) 皆さんはElastic Cloudを利用されたことはあるでしょうか? Elastic CloudはElastic社が提供しているSaaSサービスで、クラウドプロバイダはAWS、Azure、GCPをサポートしています。 最新バージョンのクラスタ構築や、既存クラスタのバージョンアップを数クリックで実施できるため、導入がお手軽です。 しかし実際に利用するとなると アクセス制限やCognito連携など、考慮すべきことが多くあります。 意外にハマりどころが多い所だと思うので、手順や注意事項などをまとめ

                                                            AWSでElastic Cloudを利用する 2024年版(構築編) - Taste of Tech Topics
                                                          • 新著が出ます - 『達人に学ぶDB設計徹底指南書 第2版』|ミック

                                                            さて、だいぶ久しぶりとなりますが、新著が出ます。序文を掲載しますので、購入にあたっての参考にしていただければと思います。初版は14刷りを数えたロングセラーで、第2版では主にクラウド対応や古くなった部分の最新化を行いまいした。 本書の初版が刊行されて10年以上が経過しました。その間にシステムとビジネスの世界にも予想だにしていなかった大きな地殻変動が起きました。ビッグデータという言葉はバズワードの域を脱して、企業の意思決定に使われるようになり、データ分析を専門に行うデータサイエンティストという職種も登場しました。クラウドの利用はもはや当たり前になり、むしろその応用方法を考えるハイブリッドクラウドやマルチクラウドの時代へと入りつつあります。そして何より、生成AIを中心とするAIの波があらゆる業界に押し寄せています。しかし、その中でも変わらなかったことがあります。それがデータベースの重要性です。変

                                                              新著が出ます - 『達人に学ぶDB設計徹底指南書 第2版』|ミック
                                                            • ピクシブ社エンジニアが語る、機械学習基盤とその技術 「GCPバッチ基盤」「リアルタイムの推論基盤」「ノートブック開発環境」整備の裏側

                                                              登壇者の自己紹介とアジェンダの紹介 sugasuga氏:こんにちは。今日は、ピクシブの機械学習基盤に関する発表をいたします。 まずは自己紹介から始めさせてください。自分は、機械学習チームでエンジニアをしているsugasugaといいます。サブで採用・広報活動にも関わっています。最近の趣味は、トレーニングです。 今日お話しすることは、(スライドを示して)こちらを予定しています。機械学習基盤について。そして、基盤で使われている技術について。運用してみて感じたメリットとデメリットについてお話しします。 大規模なデータの効率的な処理、機械学習サービスの展開のしやすさ、効率的な開発などに課題があった 本題に移る前に、導入として、どういったところで機械学習が活用されていて、なぜ機械学習基盤が必要かについてお話しします。 活用されている場面としては、違反検知、レコメンド、広告、3Dなど多岐にわたります。こ

                                                                ピクシブ社エンジニアが語る、機械学習基盤とその技術 「GCPバッチ基盤」「リアルタイムの推論基盤」「ノートブック開発環境」整備の裏側
                                                              • Kafka is dead, long live Kafka

                                                                TL;DRWarpStream is an Apache Kafka® protocol compatible data streaming platform built directly on top of S3. It's delivered as a single, stateless Go binary so there are no local disks to manage, no brokers to rebalance, and no ZooKeeper to operate. WarpStream is 5-10x cheaper than Kafka in the cloud because data streams directly to and from S3 instead of using inter-zone networking, which can be

                                                                  Kafka is dead, long live Kafka
                                                                • trocco・BigQuery・Tableauを採用。アソビューがデータ分析基盤の再構築に挑んだ理由 - what we use(技術スタックデータベース)

                                                                  はじめまして、アソビューでデータ基盤チームに所属している霧生です。 近年、モダンデータスタックの登場などによりデータ分析基盤は一層盛り上がりを見せています。選択肢も増えてできることが多くなった反面、どう構築していくか迷う場面も多いのではないでしょうか。今回はアソビューのデータ分析基盤の構成と現状の課題、将来的な改善をどう考えているのかなどを解説しますので、ご参考になれば幸いです。 現在のアソビューのデータ分析基盤アソビューは創業10周年を超えており、当然ながら今までもデータを分析して事業やサービスに役立ててきました。しかし、コードやインフラの継ぎ足しを重ねたことにより秘伝のタレのような状態と化してしまい、多くの課題が生まれています。そこで、アソビューではこの問題を解消するために、昨年から株式会社DATALEさんとともにデータ分析基盤の再構築を行いました。 データ分析基盤を構築するにあたり、

                                                                    trocco・BigQuery・Tableauを採用。アソビューがデータ分析基盤の再構築に挑んだ理由 - what we use(技術スタックデータベース)
                                                                  • Cloud SQL for MySQL 5.7 のデータを Cloud SQL for MySQL 8.x へ DMS を利用して移行してみた - VISASQ Dev Blog

                                                                    はじめに こんにちは!DPE(Developer Productivity Engineering)チームの高畑です。 最近カーオーディオにハマっていて、スピーカーを変えたり DSP アンプを導入したりとオーディオの沼に腰あたりまで浸かってしまいました。 スピーカーケーブルをちょっと良いやつに変えたりしてみたんですが、正直違いが分かっていないので頭まで浸かるのはまだ先のようです。 現在、ビザスクでは遅ればせながら MySQL 5.7 から MySQL 8.x へアップグレードするためのプロジェクトが進行しており、既存のデータを移行するため諸々の検証を行なっていました。 検証を進めるにあたり、データの移行に DMS (Database Migration Service) を利用する方針となったので、経緯や方法をご紹介したいと思います。 移行方法の検討 当初、既存の MySQL 5.7 デー

                                                                      Cloud SQL for MySQL 5.7 のデータを Cloud SQL for MySQL 8.x へ DMS を利用して移行してみた - VISASQ Dev Blog
                                                                    • SREエンジニアが目指すGKE共通デプロイ基盤の完成形 - ぐるなびをちょっと良くするエンジニアブログ

                                                                      こんにちは。開発部門 開発部 Data AI Strategyセクション データ基盤 Unitの小野です。 2020年8月に入社してから早3年。SREエンジニアとして、日々業務改善に励んでいます。 ここ一年ほど、DAOという組織改善プロジェクトを推進していく中で、Google Kubernetes Engine (GKE)を使ったGKE共通デプロイ基盤の整備も進めてきました。 ※ DAOについての詳細はSREエンジニアが組織改善プロジェクトを立ち上げてみたを参照ください SREエンジニアの責務の一つは、プロダクトのリリースサイクルを極限まで短くし、次々と新しいサービスを世の中にリリースすることです。ChatGPTのような誰でも簡単に扱えるAIモデルが誕生したことで、プロダクト開発競争は今後ますます激しくなっていくと予想しており、SREエンジニアの責務の重要性をヒシヒシと感じています。 そう

                                                                        SREエンジニアが目指すGKE共通デプロイ基盤の完成形 - ぐるなびをちょっと良くするエンジニアブログ
                                                                      • 最小権限の原則に一歩近づく - Entra ID の "Just-in-time application access with PIM for Groups" 機能の紹介 - LayerX エンジニアブログ

                                                                        LayerX Fintech事業部(※)の piroshi です。 ※三井物産デジタル・アセットマネジメント (MDM)に出向しています。 沖縄からリモートワークで働いており、蒸し暑い日が続いています。クーラーをつけないと寝苦しくなってきました。 ところでみなさん、特権 (ちから) が欲しいですか?ここでの権限はシステム上の各種権限です。私は小心者で、大きすぎる力は持ちたくない派です。特権をもっていると「オレは今、セキュリティリスクの塊だ...」と気になってしまい、輪をかけて夜も眠れません。 さて、Microsoft の IdP サービスである Entra ID には Privileged Identity Management (PIM) という特権管理機能があります。PIM により「必要最低限の権限」を「必要な期間」に限定して付与することが可能です。ユーザは特権へのエスカレーションを自

                                                                          最小権限の原則に一歩近づく - Entra ID の "Just-in-time application access with PIM for Groups" 機能の紹介 - LayerX エンジニアブログ
                                                                        • Microsoft Build 2024 キーノート完全日本語化まとめ・意訳 - 吉田の備忘録

                                                                          今年も開催されたMicrosoft Build 2024のキーノートを日本語でまとめをお届けします!今年は吉田が製品チームとして「Ask the Expert」ブース対応を現地で3日連続アサインされた上、夜は無謀にも48時間以内にPower Platform の発表について2時間にわたってお届けするイベントを開催した関係上、まとめが遅くなってしまいました。 Build 2024 のPower Automateブース その分、Satya Nadellaが登壇で利用したスライドを丸ごと日本語化し、より丁重なまとめ?(もはやフル原稿…)を作ることができました。このページの一番下にはスライド完全意訳版をダウンロードできるようにしてありますので、ぜひ読んでくださいね。 それでは以下、キーノートの情報をお伝えします! 開発者会議は常に最もエキサイティングで、最も楽しい瞬間です。私は成人してからの人生を

                                                                            Microsoft Build 2024 キーノート完全日本語化まとめ・意訳 - 吉田の備忘録
                                                                          • 担当者なしでセキュリティ認証 SOC2 Type2 を取った話|テイラー(YC S22)

                                                                            SOC2ってなに?テイラーは、エンタープライズ向けのソフトウェア開発基盤を提供しているため、セキュリティをとても大切にしています。 特に、米国市場においては、SOC2という認証規格が、エンタープライズにおけるソフトウェア選定・ベンダ選定の際に見られることが多く、「持ってて当たり前」の認証になりつつあります。日本でも個人情報を扱うコールセンター受託などの事業者が「Pマーク」や「ISMS」を持っているのが当たり前なのと似たような感覚と考えてOKです。 SOC2は基本的には個人情報のみならず、ソフトウェアセキュリティ全般の体制および内部統制が、基準を満たすことを、外部の監査人(CPA)がお墨付きを与える制度になっており、一般的にはISO27017(日本では「ISMSクラウドセキュリティ認証」と通称されているISO規格)よりも高難度であると解釈されています。 (厳密には、ISOが規格のフレームワー

                                                                              担当者なしでセキュリティ認証 SOC2 Type2 を取った話|テイラー(YC S22)
                                                                            • マイクロソフトの時価総額3兆ドル突破が嬉しいので中から見てたらどんな感じだったかを書いてみた|牛尾 剛

                                                                              私はマイクロソフトに2015年に入社して、日本のリージョンでエヴァンジェリストをしたのちソフトウェアエンジニアになって、今アメリカの Redmond で Azure の開発者として勤務している。中の人としてはとても嬉しいニュースで感慨深い事なのでブログを書いてみたい。尚、ここに書いていることは単なる私の体験で、私の意見であり、所属会社の見解ではないことを断っておく。 マイクロソフト前夜 私は子供のころから、マイクロソフトのコンピュータは全然使ってなくて、マイクロソフトに入る前も、大学では みんなが MS-DOS を触っているところ、Solaris を触ってたし、入社前も Dockerとか Linux を触ってたしマイクロソフトに全然興味がなかった。ただ友人のみーさんに「牛尾君はマイクロソフトに向いてるんちゃう?」と言われて入社したのだが、どちらかというと動機はクラウドの技術に触れたいという

                                                                                マイクロソフトの時価総額3兆ドル突破が嬉しいので中から見てたらどんな感じだったかを書いてみた|牛尾 剛
                                                                              • ヘルステックスタートアップのエンジニアが医療情報技師の試験を受けた感想

                                                                                8月に受験した医療情報技師能力検定試験に合格していたので感想を書く。 モチベーション シンプルに「この業界はどんなデータがあるのか知りたい」というのが1つ。筆者は去年からヘルステックスタートアップのデータサイエンスチームにいる。その前はインターネット広告業界だったので医療ドメインに関する知識は無い状態で医療業界に来た。転職してしばらく経ったが業務に直接関わらない領域は理解が曖昧なのと、限られた知識で仕事を回す事の課題感が強まってきたので網羅的な知識をインプットすべく取り組んだ。 医療情報技師はテキストが非常に充実しているので試験を受けなくとも学習は可能。とはいえ学習期間にリミットを設定できるのと理解度チェックのために受験した。業務独占資格では無いので他にメリットがあるかは不明。 購入した公式テキスト。以降はこれらの本をテキストと表記する。 試験の概要 まず医療情報技師は以下の様に定義されて

                                                                                  ヘルステックスタートアップのエンジニアが医療情報技師の試験を受けた感想
                                                                                • きちんとした日本語文章を書くときに気を付けていること - ナンモワカランアザラシ

                                                                                  仕事で、他の人が書いた日本語文章をレビューをする機会がある。 複数の人に同じようなレビューコメントを書いているので、私が普段気にしていることをまとめてみる。 総合すると、「読み手に親切にしようね」という身も蓋もないアドバイスになる。親切さがあれば自然と、ここで書くようなポイントを直したくなる......と主張するつもりはない。やはりプラクティス的に身に着けておくのが手っ取り早いだろう。 きちんとした日本語文章を書くときに気を付けていること 文章を構成するコンポーネントを「語」「文」「文章」のレベルで分けながら、それぞれのレベルで気になるポイントを挙げていく。 語レベル 一単語レベルで書き直すことが多いポイントを挙げる。 同じ助詞の連続を避ける 「~の~の~のhogehoge」や「~て~て」を避けたい。同じ語が連続すると読みのリズムが悪くなったり、意味が不明瞭になったりするからだ。 なお、助

                                                                                    きちんとした日本語文章を書くときに気を付けていること - ナンモワカランアザラシ