並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 92件

新着順 人気順

GCPの検索結果1 - 40 件 / 92件

  • スタートアップでセキュリティを改善していくための手順書

    ダイニーの urahiroshi です。 ダイニーはプロダクト・組織ともに拡大中です。プロダクトの利用が広がれば広がるほどセキュリティの重要度も増してきますが、ダイニーにはセキュリティの専門家がおらず、体系立ててセキュリティ対策を実施できていなかったという課題がありました。 この記事では、ダイニーのセキュリティ改善の取り組みを紹介していくことで、ダイニーのようにセキュリティの専門家がいないスタートアップでもセキュリティを改善していく動きができるように後押ししたいと考えています。 ステップ0. 方針の策定 スタートアップの日々の開発業務において、プロダクトの改善やインシデント対策などについてはやりたいことが無数にあります。しかし、そういった目に見えて優先度が高いものを実施しているだけだと永遠にセキュリティ対策ができません。 そこで、まずセキュリティのリスクや優先度を見える化する動きを作り、継

      スタートアップでセキュリティを改善していくための手順書
    • Railsを扱う時に考えること

      概要 こういうことを実践できたらメンテナンスしやすいRailsアプリケーションを構築できるんだろうな、というポエムです。 前提 以下の条件を前提に書いています。 0→1の構築である 自由に技術を決められる モノリス モジュラモノリスは考えない 複数DBは考えない スコープ ざっと以下のことを考えたいと思います。 フロントをRailsで構築するかどうか REST vs GraphQL RDBMS選定 ライブラリ選定 静的解析 rubocop モデリング つまりDB設計 アーキテクチャ Yes MVC, No Layerd Architecture サービスクラスの是非 Fat Controllerの避け方 自動テスト戦略 RSpec (Playwright) コンテナ化 令和時代のRailsに最適化されたDockerfileの書き方 インフラリソース クラウドプロバイダー選定(AWS, GC

        Railsを扱う時に考えること
      • 「新自由主義、あるいは世界の官僚化」(デヴィッド・グレーバー)の日本語訳|缶ビ

        新自由主義、あるいは世界の官僚化デヴィッド・グレーバー (2009) アメリカ人はしばしば世界の他の地域の人々と政治の話をすることに困難を覚える。2005年12月末に世界中のニュースワイヤーから多かれ少なかれ無作為に抜粋した3つの引用を見てみよう。ボリビアでは、新たに大統領に選出されたエボ・モラレスが「国民は新自由主義者を打ち負かした」と宣言し、「私たちは新自由主義モデルを変えたい」と付け加えた。ドイツでは、ロタール・ビスキーが、新政党の結成が「新自由主義が社会的結束に与えるダメージに対抗する民主的な代替案を生み出すことに貢献する」こと期待すると発表した。同じ頃、あるパン・アフリカ主義のウェブジャーナルが、「モーリシャス、スワジランド、マリといった遠く離れた国々からの新自由主義に代わる経済についての議論の高まりを反映した」特集号を発表した。[1] これらはたった3つだが、容易に何十も見つけ

          「新自由主義、あるいは世界の官僚化」(デヴィッド・グレーバー)の日本語訳|缶ビ
        • マイクロサービスでの分散トレーシング - AWS X-Ray vs DataDog

          概要 マイクロサービスアーキテクチャではサービス間の依存関係が複雑化し、デバッグやパフォーマンス管理が難しくなります。本記事では、分散トレーシングの必要性を整理した上で、代表的なツールであるAWS X-RayとDataDogを比較検証します。さらに、FunctionA → SQS → FunctionBという簡易的なサンプルアプリケーションを例に、実際にトレーシングを試す際のポイントを紹介します。 1. はじめに:マイクロサービスと分散トレーシングの重要性 マイクロサービスは、アプリケーションを小さなサービスに分割することでスケーラビリティや開発効率を高められるアーキテクチャです。しかし同時に、サービス間通信の可視化や性能監視、障害原因の特定が難しくなるという課題があります。 分散トレーシングを導入することで、以下のメリットが期待できます: サービス間の呼び出しの可視化 どのサービスがどの

            マイクロサービスでの分散トレーシング - AWS X-Ray vs DataDog
          • AIエンジニアと話題のDevinを導入してみた

            はじめに NOT A HOTELではSlack Bot に GPT-4V API を搭載するやNOT A HOTELアプリにGPT-3.5系モデルを用いたAIコンシェルジュ機能「Kevin」を追加といった記事に見られるように、LLMや生成AIを活用したツールを試したり、プロダクションリリースを行なっています。 現在もGitHub Copilotを会社負担で導入したり、Difyをクローズドなネットワークで検証可能な環境を社内に構築するなど、先端的な技術の活用を積極的に行なっています。 そう言った活動の一環として、社内でDevinを導入してみる会を行いましたので、知見を共有します。 Devinとは Devinは2024年3月にリリースされた開発支援ツールです。 Devin is a collaborative AI teammateと説明されている通り、 まるでチームメイトが増員したかのごとく

              AIエンジニアと話題のDevinを導入してみた
            • Windows 11 24H2サポートを巡る議論 (22H2じゃダメなんですか?)|小野谷静@オノセー

              なおあらかじめめ明言しておくと、自分は実はかつてはパソコンメーカーの担当者であり、実に胃の痛い思いをしていた時期がある。つまりユーザー的な立場ではなく、ついついMicrosoftやメーカーに都合よく誘導する内容を書く可能性がある者であるということである。ご承知おき頂けると幸いである。 (ついでに宣伝) 1. MicrosoftやPCメーカーのサポート姿勢と22H2もともとMicrosoftのようなソフトウェア企業と、それを動作させるハードウェア企業とは運命共同体である。何も知らない子供たちがそれらの企業の社長になったら、「売上を上げるために最新OSで最新パソコンだけサポート対象にしよう」となる。ユーザーは常に最新機種で最新パソコンを利用することを要求される… ちなみにAWS、Azure、GCPのようなパブリッククラウドでも、基本的に最新環境を利用することが前提条件となっている。かつて利用し

                Windows 11 24H2サポートを巡る議論 (22H2じゃダメなんですか?)|小野谷静@オノセー
              • Building an Open, Multi-Engine Data Lakehouse with S3 and Python - Tower

                Building an Open, Multi-Engine Data Lakehouse with S3 and Python The idea of open, multi-engine data lakehouses is gaining momentum in the data industry. Here is what has happened in the last six months alone. Last week, the data community was abuzz when AWS announced Iceberg-based S3 Tables at this year's re:Invent. In October, Snowflake launched a managed service for Iceberg metadata catalogs ca

                  Building an Open, Multi-Engine Data Lakehouse with S3 and Python - Tower
                • スタートアップでセキュリティを改善していくための手順書|urahiroshi

                  ダイニーの urahiroshi です。 ダイニーはプロダクト・組織ともに拡大中です。プロダクトの利用が広がれば広がるほどセキュリティの重要度も増してきますが、ダイニーにはセキュリティの専門家がおらず、体系立ててセキュリティ対策を実施できていなかったという課題がありました。 この記事では、ダイニーのセキュリティ改善の取り組みを紹介していくことで、ダイニーのようにセキュリティの専門家がいないスタートアップでもセキュリティを改善していく動きができるように後押ししたいと考えています。 ステップ0. 方針の策定スタートアップの日々の開発業務において、プロダクトの改善やインシデント対策などについてはやりたいことが無数にあります。しかし、そういった目に見えて優先度が高いものを実施しているだけだと永遠にセキュリティ対策ができません。 そこで、まずセキュリティのリスクや優先度を見える化する動きを作り、継続

                    スタートアップでセキュリティを改善していくための手順書|urahiroshi
                  • 【Cloudflare】Cloudflareが公開した2024年のインターネット年次レビューが興味深い - Qiita

                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Cloudflareが先日Year in Review 2024という年次レビューを発表しました。 Cloudflareにホストされているデータ、DNSリゾルバ1.1.1.1、そしてそれ以外の様々な指標を元にインターネット全体での様々な情報を分析した調査報告ということです。 Year in Review 2024 Internet Traffic Growth 昨年比のインターネットトラフィックです。 昨年に比べて17.2%増加しました。 8月まで前年と同じくらいなのに、その後急激に増えてますね。 Internet Services 1

                      【Cloudflare】Cloudflareが公開した2024年のインターネット年次レビューが興味深い - Qiita
                    • tfactionを導入しようと3日試行錯誤して結局導入しなかった話

                      tl;dr 去年tfactionを導入しようとしましたが、試行錯誤ののち以下の点を重く見て結局導入は見送りました。 導入のためのドキュメントがまとまっていない 構造が複雑すぎる unix哲学に沿っていない(直交性がない) 注意事項 本記事は導入しなかった話という内容の記事ですが、tfactionを全否定したりFUDをする目的のものではありません。 あくまで私達の環境とマッチするか検討して最終的に導入しなかった事実と、そこに至った過程・考えを書くことで、私と同様にtfactionの導入を検討している人の参考になったらと思い書いております。 なので、この記事を元にtfactionは全くだめだといった曲解や制作者への攻撃のために引用しないでください。 そもそもtfaction自体OSSで制作者の個人的な努力の成果物を無償で使わせてもらっており、そこについては感謝しかありません。さらに言えば、今回

                        tfactionを導入しようと3日試行錯誤して結局導入しなかった話
                      • Cloud Run functionsでSlackのスラッシュコマンドを作ってみた - G-gen Tech Blog

                        G-gen の杉村です。Google Cloud の Cloud Run functions を使い、Slack のスラッシュコマンドを作ってみました。主に Google Cloud 側の開発に関する概要を解説します。 はじめに 当記事について 免責事項 構成 構成図 レシーバー関数とバックエンド関数を分ける理由 Slack の署名検証 Slack へのメッセージ返信 レシーバー関数の開発 Slack からの HTTP リクエスト ソースコード Pub/Sub クライアントの生成 Slack からの署名を検証 Slack からのリクエスト body を取得 環境変数からトピック ID を取得 エラーメッセージ バックエンド関数の開発 Pub/Sub トリガー関数のデプロイ Pub/Sub から受け取るメッセージ ソースコード Pub/Sub メッセージの取得 response_url への

                          Cloud Run functionsでSlackのスラッシュコマンドを作ってみた - G-gen Tech Blog
                        • 前職で長くいた人が初転職でビザスクに入社しましたエントリ - VISASQ Dev Blog

                          自己紹介 はじめまして。2024年10月に入社しましたminatoと申します。クライアント開発チームに所属しています。 約1年ぶりの入社エントリということで、最近のビザスクにはこんな人もいるのね、と参考にしていただければ幸いです。 前職では新卒・未経験で自治体向けのサービスを開発・提供している事業会社に入社し、PHP(Laravel)やVue(Nuxtjs)を使ったWebアプリの設計・開発していました。 エンジニアとしてのスキルアップと、ユーザに近い環境でフィードバックをもらいながら、サービスの成長に貢献できる環境を求めて転職活動をしていたところ、 ご縁あってビザスクにJOINさせていただけることとなりました。 大阪でフルリモートで働いていまして、フルリモートは初なので環境の変化を楽しみつつお仕事させていただいています。 休みの日は子どもと遊んだり、読書やゲームをしたりしています。 実は前

                            前職で長くいた人が初転職でビザスクに入社しましたエントリ - VISASQ Dev Blog
                          • Chatgptにアービトラージbot作らせてみた - Qiita

                            アービトラージBotの構築から運用までの具体的な手順 ① 環境構築 必要なもの 項目 説明 OS Windows 11(WSL2推奨) or Linux(Ubuntu 20.04) プログラミング言語 TypeScript(Node.js) or Python(Web3.py) 取引所API Bitget, MEXC, Hyperliquid, Binance, Uniswap, 1inch ウォレット MetaMask(Ethereum, BSC, Arbitrum対応) 開発環境 VS Code(またはJetBrains系)、Docker、Git データ取得 WebSocket(リアルタイムデータ)、REST API サーバー(推奨) AWS, Vultr, Hetzner, GCP(常時稼働用) ソフトウェアのインストール Windows 11 + WSL2環境 1. WSL2 &

                              Chatgptにアービトラージbot作らせてみた - Qiita
                            • DuckDB goes distributed? DeepSeek’s smallpond takes on Big Data

                              DeepSeek has made a lot of noise lately. Their R1 model, released in January 2025, outperformed competitors like OpenAI’s O1 at launch. But what truly set it apart was its highly efficient infrastructure—dramatically reducing costs while maintaining top-tier performance. Now, they're coming for data engineers. DeepSeek released a bunch of small repositories as independent code modules. Thomas Wolf

                                DuckDB goes distributed? DeepSeek’s smallpond takes on Big Data
                              • SAP Databricksのご紹介 - Qiita

                                サマリー このパートナーシップによって、お客様はエージェントシステムを含む高度な分析とAIユースケースで、SAPデータとその他の企業データをインテグレーションできるようになります。 SAP DatabricksはSAP Business Data Cloudのネイティブのコンポーネントとなります。 SAP Databricksによって、お客様はSAP Databricksと自身の企業環境間で双方向でデータを共有しつつも、SAPデータがそのセマンティクスを維持できるようになります。 本日、我々は自身の業界のゲームジェンジャーとなりうると考える、SAPとのディープなパートナーシップを発表します。簡単に言えば、企業全体において最も重要なビジネスデータ(SAPデータ)と市場でベストなデータプラットフォーム(Databricks)との結婚と言えます。我々の新たなオファリングであるSAP Databr

                                • Cloud Composer で Storage Transfer Service の転送ジョブのステータスを監視したい | DevelopersIO

                                  こんにちは!エノカワです。 Cloud Composer は、Apache Airflow で構築されたフルマネージドのワークフローオーケストレーションサービスです。 Apache Airflow のオープンソース プロジェクトを基に構築されており、Python プログラミング言語を使用して動作します。 やりたいこと Cloud Composer上で動作する Airflow DAG で、Storage Transfer Service の転送ジョブの完了を待機する仕組みを検討しています。 具体的には、Google Cloud Storage に転送されたファイルを BigQuery に取り込むために、転送ジョブが完了するのを待つ必要があります。 今回は、CloudDataTransferServiceJobStatusSensorを使用して、DAG から転送ジョブの完了を待機できるか試して

                                    Cloud Composer で Storage Transfer Service の転送ジョブのステータスを監視したい | DevelopersIO
                                  • React アプリケーション内での Maps JavaScript API の使用を効率化する

                                    .app 1 .dev 1 #11WeeksOfAndroid 13 #11WeeksOfAndroid Android TV 1 #Android11 3 #DevFest16 1 #DevFest17 1 #DevFest18 1 #DevFest19 1 #DevFest20 1 #DevFest21 1 #DevFest22 1 #DevFest23 1 #hack4jp 3 11 weeks of Android 2 A MESSAGE FROM OUR CEO 1 A/B Testing 1 A4A 4 Accelerator 6 Accessibility 1 accuracy 1 Actions on Google 16 Activation Atlas 1 address validation API 1 Addy Osmani 1 ADK 2 AdMob 32 Ads

                                      React アプリケーション内での Maps JavaScript API の使用を効率化する
                                    • どのDatabricksクラスターを使えばいいのか? - Qiita

                                      Databricksで処理を実行する際には計算資源が必要となります。Databricksでは大きく分けて以下の2種類の計算資源を提供しています。 Databricksクラスター SQLウェアハウス 後者は、BI/SQLワークロードで使用するSQLワークロード特化の計算資源ですが、本書ではDatabricksクラスター(cluster) にフォーカスして説明します。 そして、上述の計算資源に加えていくつかの種類とモード(アクセスモード)が存在しています。本書では、モードの違いやどのようなケースではどのようなモードを使用してクラスターを作成すべきかを説明します。全体像を以下に示します。 Databricksクラスターとは Databricksでコードを記述する際には計算資源は不要ですが、コードを実行する際には計算資源が必要となります。 実態はクラウドプロバイダーが提供するVMです。AWSならE

                                      • Nuxt Auth Utils入門(Google認証編) - くらげになりたい。

                                        この記事を読んで使ってみたいなぁと思い、はや数ヶ月 ちょっと試してみようと、いろいろ調べてみたときの備忘録(*´ω`*) Nuxt Auth Utils でサーバーサイドの認証を(OAuth・マジックリンク・ワンタイムパスワード) Nuxt Auth Utilsとは https://github.com/atinux/nuxt-auth-utils 認証周りのライブラリ クライアントサイド、サーバサイドを含めSSRに対応 20以上OAuthプロバイダーに対応 ※nuxt buildのみ、nuxt generateは非対応 Nuxt Auth Utilsが提供しているもの ユーザセッション周りのServer UtilsやComposable&Component Server Utils(setUserSession()、etc..) ... 保存/取得クリアなどのセッション管理系 Compo

                                          Nuxt Auth Utils入門(Google認証編) - くらげになりたい。
                                        • Gemini AIを活用して認知症予防・改善アプリを開発【AI Agent Hackathon with Google Cloud】

                                          Gemini AIを活用して認知症予防・改善アプリを開発【AI Agent Hackathon with Google Cloud】 認知症予防・改善アプリ『mimi』 このアプリは AI Agent Hackathon with Google Cloudの参加アプリになります。 プロダクトの概要 今回、AI技術を活用した認知症予防・改善アプリとなる『mimi』を開発しました。 従来の認知症予防・改善アプローチの課題を克服し、個々のユーザーにパーソナライズされた、継続可能な認知機能の維持・向上支援を促すプロダクトを目標としました。 mimiの3大機能 ユーザーの基本情報(年齢、性別)や認知機能レベル(正誤、苦手な問題の傾向など)、生活習慣(運動習慣)などの情報を基に、Gemini APIを用いて最適な認知機能訓練の問題とTo Doリストを自動生成されます 認知機能訓練問題は、テキスト入力型

                                            Gemini AIを活用して認知症予防・改善アプリを開発【AI Agent Hackathon with Google Cloud】
                                          • PayPay流、データドリブンな意思決定を支えるデータマネジメント術 ~大規模データ分析基盤におけるガバナンス・アーキテクチャと全社マートの運用~【PayPay Growth Tech vol.5】|IT勉強会・イベントならTECH PLAY[テックプレイ]

                                            イベント内容 概要 「溢れかえる膨大かつ複雑なデータを事業の意思決定と成長の根幹として利活用できる基盤を整備したい」 そんな想いを持つデータエンジニアのみなさんに向けて、PayPayのデータドリブンな意思決定を支える、データ分析基盤における試行錯誤を実例にあげ、 ”活きる”データにつなげるための取り組みの全貌を公開します。 サービス開始5年で登録ユーザー数6100万人(2023年12月時点)を突破し、国内コードキャッシュレス決済として圧倒的No.1を目指し急成長をし続けるPayPayでは、トランザクションデータやユーザーのアクティビティデータ、フィンテック事業特有のクレジットに関するデータなど多種多様かつ複雑なデータが蓄積されます。 それらを価値あるデータに整えるために欠かせない、データ分析基盤の運用や全社データマートの整備、BIの構築といったミッションを担っているのがデータマネジメント部

                                              PayPay流、データドリブンな意思決定を支えるデータマネジメント術 ~大規模データ分析基盤におけるガバナンス・アーキテクチャと全社マートの運用~【PayPay Growth Tech vol.5】|IT勉強会・イベントならTECH PLAY[テックプレイ]
                                            • データアナリストからデータエンジニアとして働くようになるまでの僕のキャリア - Qiita

                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Qiita が Qiita×Findy記事投稿キャンペーン 「自分のエンジニアとしてのキャリアを振り返ろう!」 を開催しているので自分も投稿してみることにしました。 データエンジニアを目指している方の参考になれば幸いです。 TL;DR データエンジニアは分析側から入る方が結構いる 僕もそうだった 情報系出身ではないことのコンプレックスを解消するために色々と勉強した いつのまにかデータエンジニアとして働いていた キャリアの概要 現在 株式会社ギックス でデータエンジニアとして働いています。 戦略コンサルティングとアナリティクスが合わさった

                                              • 2023年版!エンジニア必見のチートシート集 - Qiita

                                                2. 機械学習・AIチートシート まずは機械学習やAI開発に関わるチートシートからです! Machine Learning Cheat Sheet | DataCamp 主要な機械学習アルゴリズム、その利点と欠点、および使用ケースをガイドするものです。初心者からエキスパートまで、誰でも役立つリソースです。 機械学習アルゴリズム チートシート MicrosoftのAzureが提供している機械学習アルゴリズムに関するチートシートです。 TensorFlow Cheat Sheet https://zerotomastery.io/cheatsheets/tensorflow-cheat-sheet/ 機械学習と人工知能のためのオープンソースライブラリ、TensorFlowのチートシートです。基本的な概念やベストプラクティスがまとめられています。 (メールアドレスでサブスクライブするとPDFがダ

                                                • SnowflakeのリソースをTerraformで作成・管理したい!

                                                  はじめに 業務の中でSnowflakeを利用しているんですが、割とエンティティが多くなってきていること、また定常的に発生する作業(user作成・ロール付与など)について、毎度毎度、手順書作成→レビュー→手順書の通りに実施 みたいなことをやっているので、もう少し自動化したいなぁという思いの元この記事を書くに至りました。 具体的にはSnowflakeのリソースをIaCで管理して、CICDパイプラインを組み、承認を得たタイミングでフローが走って自動的にリソースに対する変更がができればいいなぁという思いです。 Zennなどを見ていると既にTerraformによるSnowflakeの管理や×Github Actionsなどを利用したわかりやすい記事が既にあるので、書こうか迷ったのですがAWSのCodePipelineを利用している記事はなさそうだったのでやってみようと思います。 本記事は大きく2部構

                                                    SnowflakeのリソースをTerraformで作成・管理したい!
                                                  • Obsidian と Google カレンダーを連携してシームレスなタスク管理を実現する|松濤Vimmer

                                                    はじめにこんにちは。松濤Vimmerです。普段はWeb系の会社でフロントエンドエンジニア、デザイナー、PMなどしております。本記事は Cursor Agent によって生成されたObsidianとGoogle CalendarのCI作成をよりわかりやすく説明したものになります。 GHA、GCP に慣れている方は後ほど紹介したプロンプトで作成できるのでそちらをお試しください。 今回のゴールタスクを記述するmd ファイルにタスクを記述する Git に commit push する Google カレンダーに Obsidian で書いたタスクが反映される タスクを記述するmd ファイルタスクがGoogle カレンダーに反映される

                                                      Obsidian と Google カレンダーを連携してシームレスなタスク管理を実現する|松濤Vimmer
                                                    • 地球全体の二酸化炭素濃度の年増加量が過去14年間で最大に 〜いぶき(GOSAT)による2024年の観測速報〜|2024年度|国立環境研究所

                                                      2023年に国連のグテーレス事務総長が「地球温暖化の時代は終わり、地球沸騰化の時代が到来した」と述べたように、人類共通の喫緊の課題である気候変動は、近年その深刻度を増しています。例えば、世界気象機関(WMO)によると、地球全体の年平均気温は1970年代以降上昇を続け、2024年には2023年に引き続き過去最高を更新し、工業化以前からの気温上昇は1.5℃を上回ったことが確認されました。この気温上昇については年々の変動もあるため中長期的な傾向を確認する必要があり、昨年の状況のみでパリ協定の1.5度目標を超過したとは言えないものの、危機感を持って受け止める必要があります。また2024年の日本の平均気温の基準値(1991年から2020年の30年平均値)からの偏差は+1.48℃で、1898年の統計開始以降、2023年を上回り最も高い値となりました。このため気候変動の監視を今後も引き続き強化していくこ

                                                        地球全体の二酸化炭素濃度の年増加量が過去14年間で最大に 〜いぶき(GOSAT)による2024年の観測速報〜|2024年度|国立環境研究所
                                                      • Windows11でリモートデスクトップを活用するには?設定方法や課題を詳しく解説 | スプラッシュトップ

                                                        クラウドとの統合 Windows11のリモートデスクトップは、Microsoft 365やAzureなどのクラウドサービスとシームレスに連携します。 OneDriveを使用したファイル同期やTeams経由のコミュニケーションなど、クラウドベースのツールを効果的に活用できます。 このようなクラウドとの統合機能により、場所を問わず生産性の高い業務環境の構築が可能です。 目次へ戻る Windows11でリモートデスクトップを設定する方法 リモートデスクトップの活用には、適切な設定が不可欠です。 ここでは、Windows11でリモートデスクトップを設定する方法について詳しく解説します。 システム要件の確認 Windows11でリモートデスクトップを利用するには、まずシステム要件の確認が必要です。 ホスト側のPCは、Windows11ProまたはEnterpriseエディションである必要があり、十分

                                                          Windows11でリモートデスクトップを活用するには?設定方法や課題を詳しく解説 | スプラッシュトップ
                                                        • GitHubの非公開リポジトリがMicrosoftのAIアシスタント「Copilot」により無断公開|セキュリティニュース

                                                          生成AIセキュリティプラットフォームを運営する企業「Lasso 」はGitHubの非公開リポジトリがMicrosoftのAIアシスタント「Copilot」による無断公開されている可能性を発表しました。 問題の概要 2024年8月、Lasso の研究者はOpenAI がプライベート GitHub リポジトリのデータを使用してトレーニングを行い、公開していると主張する LinkedIn の投稿に遭遇しました。 これを受けて同社が調査を開始したところ、対象リポジトリは過去に公開されていたものの、現在は404エラーとなりアクセスできない状態でした。 画像:Lasso しかし、ChatGPTに質問すると、直接データは提供しないものの、リポジトリの存在自体は認識していることが判明しました。 その理由を追求した結果、Bingが過去のリポジトリ情報をキャッシュしており、それが影響していることが分かりました

                                                          • データレイク - データ整理専門(機密情報・個人情報から通常データまで) | One Data(株)

                                                            オンプレミスかクラウドか?データレイク構築のすすめデータレイクの構築は、企業がデジタルトランスフォーメーション(DX)を実現するための重要なステップです。データレイクがもたらすメリットや最適なストレージの選定、そしてオンプレミスとクラウドのどちらで運用するべきかを理解することは、今後のビジネス戦略にとって欠かせません。本稿では、データレイクの基本知識と主要ベンダーの製品・サービスを紹介します。 データレイクの概要 データレイクは、企業が大量のデータを効率的に管理・分析するための基盤です。特に、DXを進める上で大量データの処理は前提条件となります。データレイクは、組織がデータから最大限の価値を引き出すためのコア要素であり、ストレージソリューションに依存しています。クラウドへの移行が進む中でも、オンプレミス環境での運用も選択肢として考慮する必要があります。 データレイクに必要なストレージ デー

                                                              データレイク - データ整理専門(機密情報・個人情報から通常データまで) | One Data(株)
                                                            • 【NeRF】動画から点群・メッシュ・任意視点動画を生成してみる

                                                              NeRFを使えば,点群・メッシュ・任意視点動画が作れるのでやってみた 今回は愛飲するRedBullを被写体にしてみるヨ! 任意視点動画 (GIF版) 任意視点動画 (動画版) 点群 NeRFとnerfstudioについて簡潔に説明 ボリュームレンダリング ある点 $x$と方向 $d$を入力として $(c,\sigma)$を出力する行為. $c,\sigma$はそれぞれ色と密度を指す. NeRF 画像集合からボリュームレンダリングを行うNNモデル $F_\theta(x,d)$を学習 Lossは元の画像との再構成損失. 自己位置とカメラの{内部, 外部}パラメタを計算するためにCOLMAPを使用 COLMAPのSfMにより3次元点群が得られるが,NeRFではこの点群は使用しない. 「学習」という言葉の注意点 ボリュームレンダリングを行う $F_\theta(x,d)$を学習するため,一つの物

                                                                【NeRF】動画から点群・メッシュ・任意視点動画を生成してみる
                                                              • 『【速報】米、ウクライナのスターリンク遮断警告か』へのコメント

                                                                まさかアメリカ資本のサービスにカントリーリスクが発生するとはな。AWS、GCP、Azureも遠くないかもなぁ。ディールだかなんだか知らんけど信頼が揺らぐと比較優位の原則が崩れてみんな不幸になるよなぁ…。

                                                                  『【速報】米、ウクライナのスターリンク遮断警告か』へのコメント
                                                                • Snowflakeにterraformを導入する方法 | www.sink-capital.com

                                                                  背景 今回データ基盤構築のお手伝いをさせていただいているクライアント様の中で、 新規にSnowflakeをご利用される方がいらっしゃり備考録の意味もこめ調査した内容をまとめさせていただいています。 SnowflakeはGCPやAWSといった特定クラウドサービスに縛られないサードパーティツールで、 SQLのみで全ての管理を行うことができるという特徴を持っています。 そのため今回terraformはGCPやAWSなどにおけるインフラ管理というより、DB管理ツール的な意味合いが強くなっています。 Snowflakeにterraformを導入すべきか インフラではなくDB管理としてterraform有効なのかでいうと、 個人的にはterraform等で管理することによりインフラと同様「コスト・スピード・リスク」などの面で優れていると考えています。 コスト:デプロイ時にかかる工数が大幅に減少 スピー

                                                                    Snowflakeにterraformを導入する方法 | www.sink-capital.com
                                                                  • Zabbix Conference Japan 2022レポート

                                                                    1、より広く、より深いモニタリングを——これまでもこれからもぶれないZabbixのコアーー「Zabbix Conference Japan 2022」レポート デジタルトランスフォーメーション(DX)やハイブリッドワークなど、今、さまざまな企業や組織が進めるあらゆる取り組みは、IT技術の上に成り立っていると言ってもいいだろう。これらIT技術が安定的に期待された役割を果たし続けるには、適切なモニタリングに基づく運用が欠かせない。 それを支えてきたオープンソースの監視ソリューション、「Zabbix」の年次カンファレンス「Zabbix Conference Japan 2022」が11月17日、18日に渡って開催された。 2022年は、Zabbixとして初の海外法人であるZabbix Japanの設立から10年目となる節目の年だ。久しぶりに来日したZabbixの創設者兼CEOのAlexei Vl

                                                                    • cronっぽいことをPHPでjsonとして実装する - シンプルシンプルデザイン php

                                                                      外部のAPIを利用する際、リクエスト回数が制限されることがある。また、リクエスト回数が制限され、かつ毎日更新をルールとする外部のAPIもある。 そんなときは、cronを利用することで、都度リクエストせずにあらかじめ設定した時間ごとに定期的にデータ保存して、それを参照することができる。 たとえば12時間ごとに外部APIを参照して、その結果をファイルやデータベースに保存するイメージ。 さらに、cronを利用するメリットは外部サービス側の負荷を気にすることがないので、ページ読み込み速度の改善につながる。 ちなみに、cronを利用せず、サーバー側でキャッシュして、たとえば12時間ごとにキャッシュをクリアする方法も考えられるが、レンタルサーバーでは細かく設定できるケースはほぼない。また自前サーバーやAWSやGCPのようなクラウドサービスで実装しようとしても、思わぬセキュリティホールを作りかねないので

                                                                      • Dify のワークフローで Google の Custom Search API を使って検索する - Qiita

                                                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに Difyのワークフローにはあらかじめ「GoogleSearch」と「Google Search API」が用意されているのですが、GoogleSearchのほうの無料枠は月100件、Google Search API は最初の100件だけとのこと。Googleが用意しているCustom Search API であれば1日100件まで利用可能なので、これを組み込むことができないか試してみました。 参考ページ:Qiita|Custom Search APIを使ってGoogle検索結果を取得する@zak_y 前提条件 Google

                                                                          Dify のワークフローで Google の Custom Search API を使って検索する - Qiita
                                                                        • 1億ドル規模、アンソロジー・ファンドが選ぶAI革新企業 コーディング支援からセキュリティまで | AMP[アンプ] - ビジネスインスピレーションメディア

                                                                          アンソロジー・ファンドが選ぶ注目のAIスタートアップ OpenAIの最大のライバルとされるAnthropicと、AIを専門とするベンチャーキャピタルであるMenlo Venturesが共同で立ち上げた1億ドル規模の「アンソロジー・ファンド」が第1期の投資先18社を決定した。 7月の発表以来、世界中から数千件の応募があり、選ばれた企業には10万ドル以上の投資が実施される。さらに、Anthropicの最新AI技術へのアクセスも提供されるという。 選定された企業の分野は多岐にわたる。 研究分野では、大規模言語モデル(LLM)開発者の採用支援を手がけるMercorや、オープンソースAIプラットフォームを開発するAll Hands、AIの内部動作の解明研究に特化したGoodfireなどが名を連ねる。 金融分野では、銀行やフィンテック向けのコンプライアンス管理システムを提供するCrosswiseや、税

                                                                            1億ドル規模、アンソロジー・ファンドが選ぶAI革新企業 コーディング支援からセキュリティまで | AMP[アンプ] - ビジネスインスピレーションメディア
                                                                          • 作りながら覚えるMicrosoft Azure入門講座(PaaS編)

                                                                            AWS、GCP と並び人気の高いMicrosoft Azure。この講座では代表的な PaaS のサービスを組み合わせた可用性の高いWebシステムの構築方法を丁寧に解説します。

                                                                              作りながら覚えるMicrosoft Azure入門講座(PaaS編)
                                                                            • スクレイピングした情報をWordpressで扱いやすい状態で表示する方法 - Wordpress@あなたを助け隊

                                                                              スクレイピングしたデータを良い感じでWordpressで表示したい いろんな方法を試してきました、現在、採用している方法を紹介します 処理の流れ 1 Google Cloud Functions でスクレイピングする GCPのFcunctionsにて、puppeteer でスクレイピングを実行します。 http関数にして、cronからcurlで呼ぶも良し、pub/subで呼ぶも良し。 2 スクレイピングしたデータを、VPSのMYSQLに保存する WordPressと異なるDBを新たに用意してGCP FunctionsからそのDBへinsertします。 WordPressと分けた理由は、サーバーの引越しが簡単にできるようにするため 3 自作プラグインで、DBのデータを取得、表示用に加工 以前は、表示専用固定ページを用意し、そのページ内で global $wpdb; などしてデータを取得、加工

                                                                                スクレイピングした情報をWordpressで扱いやすい状態で表示する方法 - Wordpress@あなたを助け隊
                                                                              • Managed Service for Microsoft Active Directoryを徹底解説 - G-gen Tech Blog

                                                                                G-gen の杉村です。当記事では Google Cloud (旧称 GCP) のサービスである Managed Service for Microsoft Active Directory (マネージド Microsoft AD) をご紹介したいと思います。 概要 Managed Microsoft AD とは 制限事項 料金 ユースケース Managed Microsoft AD のユースケース 既存ドメインからの移行 前提 Active Directory Migration Toolkit (ADMT) を使った移行 既存ドメインとの信頼関係 前提 アーキテクチャの検討 リソースフォレスト Managed Microsoft AD の機能と非機能 ドメイン ドメインコントローラ 信頼関係 ネットワーク 冗長化 モニタリング バックアップ・リストア 概要 Managed Micros

                                                                                  Managed Service for Microsoft Active Directoryを徹底解説 - G-gen Tech Blog
                                                                                • 【徹底検証】Gemini 1.5 Proで名刺OCRしてみたら、JSON整形まで一発だった件 - Qiita

                                                                                  import type { NextApiRequest, NextApiResponse } from 'next'; import { VertexAI, GenerateContentRequest } from '@google-cloud/vertexai'; import formidable from 'formidable'; import fs from 'fs'; export const config = { api: { bodyParser: false, }, }; export default async function handler(req: NextApiRequest, res: NextApiResponse) { if (req.method !== 'POST') { return res.status(405).json({ error: '

                                                                                    【徹底検証】Gemini 1.5 Proで名刺OCRしてみたら、JSON整形まで一発だった件 - Qiita