タグ

ブックマーク / qiita.com (406)

  • Microsoftアカウントでのリモートデスクトップ接続に苦労した話 - Qiita

    結論だけ知りたい人向け Microsoftアカウントでリモートデスクトップ接続したい場合は、WindowsMicrosoftアカウントでログインできるようにした際、PINコードや生体認証などの設定を一旦解除して、Microsoftアカウントのユーザー名/パスワードでWindowsに一度だけログインしておく必要がある。 確認はしていないのですが、頂いたコメントによると、「その他のサインインオプション」から「Microsoftアカウントのユーザー名とパスワード」でログインすれば、わざわざPINなどの解除はしなくてもいいみたいです。 経緯 長らくMacユーザーだったのですが、最近久しぶりにWindowsPCを使いだしました。 今のWindowsってオンラインのMicrosoftアカウントでログインできるんですね。でも、このMicrosoftアカウントでのリモートデスクトップ接続に謎の苦労をしま

    Microsoftアカウントでのリモートデスクトップ接続に苦労した話 - Qiita
  • TerraformでGCPのAudit logを有効化する - Qiita

    概要 前回は、GitHub ActionsとTerraformGCP管理を始める でTerraformGCPの管理を始めるのを紹介したが、今回は、AuditingをProject内で有効化する設定を書いておく。 GCPのAudit log 種類が大きく分けて4種類。そしてDataAccessAuditLogの中にまた4種類。 Admin Activity audit logs: デフォルトで有効。無効化できない。 Data Access audit logs: BigQuery データアクセス監査ログを除き、データアクセス監査ログはデフォルトで無効 詳細: データアクセス監査ログを構成する ADMIN_WRITE: デフォルトで有効。無効化できない。 Admin Activity audit logs are enabled for all Google Cloud services

    TerraformでGCPのAudit logを有効化する - Qiita
  • Draw.ioのレイヤー機能の挙動をまとめた - Qiita

    はじめに Draw.ioを使っていて、レイヤーの挙動に悩まされることが多かったので、自分なりにまとめてみました。 環境 2021/12/23 時点 VSCode Ver1.62.2 Drawio Integration Ver1.6.3 Draw.ioでは図形を各層ごとに分ける機能(レイヤー機能)が備わっており、この機能を上手に使うことで複雑なモデルの作成が容易になります。 こちらにレイヤー機能について詳しく載っています。 カキノタblog 他のレイヤーから図形を複製した時 複製された図形は選択先のレイヤーに配置されます。 この挙動はまだ直感的に理解しやすいですね。 レイヤーの異なる図形を接続した時 線や矢印などのコネクタは、異なるレイヤー配置の図形に接続することができます。 接続先の図形が非表示になるとそれに連動してコネクタも非表示になります。 コネクタが見当たらないと思ったら一度すべて

    Draw.ioのレイヤー機能の挙動をまとめた - Qiita
  • エンジニアのための自己管理入門 - Qiita

    はじめに 社内でTodo管理の勉強会を実施した際に作成した資料があったのですが、今回自分の中の考えをまとめるせっかくの機会だと思い、字面で書き起こすことにしました。 意外と世の中では語られることのなく、『あたりまえ』として扱われてしまう『自己管理』について自分が半年間運用し、週ごとにカイゼンを続けたどり着いた、現時点でのHowを多くの人に伝えられればなと思っています。 もちろん最適解がこの形とは言いませんし、自己管理は人の数分だけ最適解はあると思っています。「みんな正しい、ただし部分的に」ということを念頭に、楽しんで読んでいただければ幸いです。 タイトルを付けた理由としては、かなりシステマチックな内容になってしまっていると感じてしまったため、「運用レベルが高い」人物を想定した結果、このタイトルになりました。 概念篇 『自己管理』を行っていく上で、確実に「ここは飛ばしてはいけない」と思ったた

    エンジニアのための自己管理入門 - Qiita
  • Cloud MonitoringをTerraformで管理する - Qiita

    こんにちは。 現在、GCPを業務で利用していて、モニタリングツールとしては基的にCloud Monitoringを使っています。今回は、この設定をTerraform化しようとした時の話になります。 Terraformのコードでリソースのあるべき状態を管理しているのでCloud Monitoringも例外なく管理しますが、Cloud Monitoringのアラートポリシーは1からTerraformで作成することはなかなか大変で(\でエスケープとかしないといけない)、かつ記述する内容はGUIから判断がつきにくいものになっています(公式にも私が探した限りはない)。なので、基的にGUIで設定してからterraform importコマンドでコード化すればこの点はあまり悩まなくて済みますが、公式の書き方で実行してもなぜかimportできず、沼にはまりかけました。一筋縄ではいかないCloud Mo

    Cloud MonitoringをTerraformで管理する - Qiita
  • Go言語のバリデーションチェックライブラリ(ozzo-validation)を分かりやすくまとめてみた - Qiita

    はじめに APIサーバーの開発ではリクエストパラメータのバリデーションチェックは必須です。 Go言語ではバリデーションチェックのためのライブラリとして、 go-playground/validator と go-ozzo/ozzo-validationが有名なようです。 この記事では、go-ozzo/ozzo-validationについてまとめます。 go-playground/validatorに関しては、こちらの記事が分かりやすかったです。 ozzo-validationとは Go言語のバリデーション用の外部パッケージです。 より知名度が高いうえにシンプルに使えるものとしては、go-playground/validatorがありますが、こちらは構造体にバリデーションルールを記載する必要があり、OpenAPI(Swagger)における構造体の自動生成の恩恵を受けることができなくなってしま

    Go言語のバリデーションチェックライブラリ(ozzo-validation)を分かりやすくまとめてみた - Qiita
  • GCP VPC Service Controls を試す - Qiita

    はじめに GCP のクラウドサービスのデータ制御をする VPC Service Controls がある。 初めて使用するので、前半に内容把握を、後半に実際に軽く試した内容を記載する。 VPC Service Controls とは ざっくり言うと下記な感じ。 サービス境界(Perimeter)を作成して GCP サービスのデータ (API) に対して境界外向けのアクセスをブロックできる リスク低減には VPC Service Controls と IAM との併用が推奨 アクセスレベルを設けるとサービス境界外からのアクセスを許可できる 以下、ドキュメントの内容を元に調査・まとめた学習メモとなる。 概要 下記、項目別にVPC Service Controls の概要 ドキュメントの内容をまとめた。 ほぼドキュメント内容のままだが、正確にはドキュメント先を参照してください。 VPC Serv

    GCP VPC Service Controls を試す - Qiita
  • AWSエンジニアロードマップ2023 - Qiita

    AWSの学習順序を「路線図風」にまとめました。 ・黄色の丸は重要な項目です。 ・「AWS完全未経験」の方であれば、目安は「3ヶ月」の学習期間で「SAA資格に合格」が標準です。 (経験者であれば、より短い期間で合格が可能です。) ・SAA合格後は他資格の学習と合わせて、ハンズオンを中心に手を動かす学習を推奨します。 ChatGPTでも、ここまでのロードマップは出せないはず⛅️ 1週目:AWS基礎知識(AWS Basics) まずは「AWS」と「従来型のITインフラ環境」について整理していきましょう。 なぜAWSがこれほど世間から求められているのか?AWSのどのような点がメリットなのかについて理解するのが大切です。 オンプレミスのデメリットは ・多額の初期費用が必要 ・キャパシティの予測が必要 ・通常、サーバー購入から設置まで1ヶ月程度かかる などがあります。 一方、AWSは利用した分だけ支

    AWSエンジニアロードマップ2023 - Qiita
  • npm、yarn、pnpm それぞれのコマンドを覚えるのに疲れた方へ - Qiita

    はじめに 皆さんはnpm, yarn, pnpmどのPackage Managerを使っていますか? yarnしか使わない!という方もいるかもしれませんが、pnpm評判いいみたいだし使ってみようかなとか、チーム開発では安定のnpmなんだよなとか、複数のPackage Managerを使用するケースって少なくないかと思います。 そういった場合、それぞれのコマンドを覚えるのも面倒ですし、プロジェクトに応じて頭の切り替えをしないといけないのは大変です。 記事は、そういった悩みを解決する方法を紹介します。 ni niはnpm,yarn,pnpm,bunに対応していて、それぞれのlockfileを読み取って、適切なコマンドを実行してくれるPackage Managerです。 niのコマンドは短く、わかりやすいのですぐ覚えられると思います。 ちなみに、作者はVueやNuxt、Viteなどのコアチーム

    npm、yarn、pnpm それぞれのコマンドを覚えるのに疲れた方へ - Qiita
  • Google Compute Engine の startup script で $ go install と インストールされたバイナリを実行する方法 - Qiita

    Google Compute Engine の startup script で $ go install と インストールされたバイナリを実行する方法GogceTerraformバイナリ metadata_startup_script = <<-EOF #!/bin/bash TARGET_REPOSITORY_URL=github.com/... # ここは適宜差し替えてください TARGET_BIN_NAME=... # ここも mkdir /home/user export HOME=/home/user cd /usr/local/src wget https://go.dev/dl/go1.17.7.linux-amd64.tar.gz > /dev/null 2>&1 tar -C /usr/local/ -xzf go*.tar.gz > /dev/null 2>&1 GO

    Google Compute Engine の startup script で $ go install と インストールされたバイナリを実行する方法 - Qiita
  • psql コマンドは Docker コンテナとして実行しよう - Qiita

    ターミナルから psql コマンドを使って外部の PostgreSQL サーバに接続したいが、 psql コマンドを使うためには作業マシンに PostgreSQL をインストールしなければならない。 作業マシンに PostgreSQL をインストールすると何が起きるかというと、 createuser のような「PostgreSQL っぽくない名前のコマンド1」がインストールされてしまう。これがあまり好きではなく、この理由のため自分は作業マシンに PostgreSQL をインストールしたくない。 しかし、外部の PostgreSQL サーバと接続するために psql コマンドだけは使いたい。 こういうときは、Docker の出番である。 psql コマンドは Docker コンテナの中で動かすことにして、シェルの alias で普通の psql コマンドとして使えるようにしている。 ※ --

    psql コマンドは Docker コンテナとして実行しよう - Qiita
  • メソッド名・変数名などに使用する英語の使い分けついてのガイドライン - Qiita

    英語のニュアンスがわからないため微妙なところで名付けに困ることがあります。 これは自分なりの使い分けのガイドラインです。 どういう表現を使用するか 積極的に採用 hoge_number : 番号を表すときはnumber hoge_count : 計数(個数や回数)を表すときはcount 採用したくない number_of_hoge : 長くなるから嫌う人は多いと思う hoge_no : noでは意味がわからない コレクション 積極的に採用 hoges : 一般的に複数形にすることでコレクションであることを表現できる hoge_group : なんらかの規則で集められたグループであることを示唆できるかもしれない 採用したくない hoge_list : データ構造を明示するのは冗長(だが必要となることもある) 〜〜者 日語では多用するが英語にするのが難しい。特に「担当者」という言葉はなんでも

    メソッド名・変数名などに使用する英語の使い分けついてのガイドライン - Qiita
  • ワンランク上のSQLを書くためのポイント3つ - Qiita

    この記事はNuco Advent Calendar 2022の17日目の記事です。 ワンランク上のSQLとは? 1年近く、データ分析に関わる業務に携わっってきた中で、良いSQL、いまいちなSQLをいろいろ見てきました。 自分が書くSQLも、最初の頃は目も当てられないSQLも書いてきました。そんな中で、こんなことを意識していくと、より良いSQLになるのでは?というポイントをまとめていきます。 とりあえずSQLの文法は一通り勉強して、取得したいデータをとってくるSQLをかけるようになったぞ。という人に向けたものなので、当に基礎的な文法は解説していません。 ワンランク上のSQLを書くためのポイントは、 ・読みやすい ・再利用しやすい ・処理が早い の3つを押さえられているかどうかだと感じています。 可読性が高いメリット 間違いにくくなる/デバックが容易になる エラーが出てくれれば間違っているこ

    ワンランク上のSQLを書くためのポイント3つ - Qiita
  • なぜETLではなくELTが流行ってきたのか - Qiita

    概要 troccoの生みの親で、現プロダクト責任者をしている @hiro_koba_jp です。 troccoアドベントカレンダー2022の1記事目書いていきます!(みんなも参加してね) データ分析やデータエンジニアリングにおいてETL(Extract Transform Load)という言葉を耳にしたことがある方は多いのではないでしょうか? 一方、「ETLではなくELT(音楽グループではない)が主流になりつつある」といったような論調も増えてきました。 この記事では、ETLとELTの違いや、なぜELTにシフトしつつあるのか、この先どうなるのか(予想)について、私なりの見解を書いてみようと思います。 一昔前まではETLパターンが多かった Redshiftが登場した2013年頃、人々はデータレイク層はS3上で構築し、データウェアハウス層〜データマート層はRedshift上に組む人が多かったよう

    なぜETLではなくELTが流行ってきたのか - Qiita
  • テックリードとして入社してからやったことをまとめてみた。 - Qiita

    現在の会社にテックリード(1人目の正社員エンジニア)として入社して、2年間やってきたことを書いています。 エンジニア二年目でテックリードとして試行錯誤してきて、自分の振り返りもしたいという思いから記事を書きました。 (前提として、シード期のスタートアップで実行してきたことです。) 入社時のチーム課題 入社当時は、2週間単位のスプリントでスクラムを回してましたが、全員が業務委託だったこともあり、完全な内製化を進める必要があり、主な課題は以下でした。 継続的リリースが困難な状態になっており、それを解消することが急務 社内にエンジニアがいなかったので、開発組織体制づくりが必要だった。 ウォーターフォール寄りのリリースが多く、継続的にリリースする文化がなかった。 リファクタリングやテストコードが不十分だった。 改善したこと Zenhubを導入 それまでは、GitHub Projectで進捗管理をし

    テックリードとして入社してからやったことをまとめてみた。 - Qiita
  • PlantUMLでER図を書くときのコツ - Qiita

    概要 PlantUMLでER図を書くことがあったのですが、 その時線がごちゃごちゃになって苦しんだのでTipsを残します。 PlantUMLを使ったことがないけどER図を書く必要がある エンティティの箱がどんどん右側に増えていって困る リレーションの線の長さを変えたい このような悩みを持つ初心者の方向けの内容です。 事前準備 今回使うテーブルについて 今回使うテーブルは下記のような感じです。 (RailsアプリケーションのテーブルのER図を書いていたので、 テーブルの命名などはActiveRecordのやり方に沿っています。) エンティティの中身については触れません。 エンティティをまとめたPlantUML @startuml tables entity companies as "companies\n会社" { + id [PK] -- name [会社名] created_at [作

    PlantUMLでER図を書くときのコツ - Qiita
  • 時間をずらしてcronを実行する - Qiita

    5分間隔で実行するときは */5 * * * * command こんな感じで */5 と指定しますよね。 この場合だと0分、5分、10分、……、55分に実行されます。 0分開始は嫌だったのでずらすことにしました。 # 0分、5分、10分、……、55分 */5 * * * * command # 1分、6分、11分、……、56分 1-56/5 * * * * command # 2分、7分、12分、……、57分 2-57/5 * * * * command # 3分、8分、13分、……、58分 3-58/5 * * * * command # 4分、9分、14分、……、59分 4-59/5 * * * * command

    時間をずらしてcronを実行する - Qiita
  • 【web3】個人開発でDAO(分散型自律組織)をやってみる - Qiita

    追加(2022/08/07) 続編書きました。こちらも面白いです。 DAOの定義・特徴 まず、DAOについての基礎知識を簡単に解説します。すでに知っている方は読み飛ばしてOKです。 DAOってなに?? DAOとは、Decentralized Autonomous Organizationの略称で、日語では「自律型分散組織」と呼びます。 web3やブロックチェーンの文脈から生まれた概念で、「2022年流行する」と言われている新しい組織の形です。 フォロワーの大半がエンジニアで占めている私のTwitterアカウントでアンケートを実施したところ、72%の人がDAOを知らなかったため、世間的にはまだまだ知名度は低いと思われます。 DAOを格的にやろうと思うんだけど、興味ある人いる…?(需要調査) — ちぇん (@yuno_miyako2) June 4, 2022 しかし世界を見渡すと毎日数多

    【web3】個人開発でDAO(分散型自律組織)をやってみる - Qiita
  • わかりやすいシステム構成図の書き方 - Qiita

    わかりにくいシステム構成図とは こんなシステム構成図を書いてないでしょうか? このシステム構成図のわかりにくい点が3つあります。それは 製品名は書いてあるが「役割」が書いていない データと処理が区別できない データの流れと制御の流れが区別できない の3つです。 わかりやすいシステム構成図 これら3つのわかりにくい点を改善したわかりやすいシステム構成図が↓です ポイントを解説していきます ポイント1. 製品名称ではなく「役割」を書く システム構成図には製品名称ではなくシステムコンポーネントの「役割」を書きます。 役割とは、例えば〇〇データや〇〇処理といったことであり、それを読むだけでシステムの動きを理解できる文字列です。役割をかかずに製品名称のみを書いてしまうと、その製品を知らない人が見たときに理解できません。例えば「Cloud Pub/Sub」という製品はGCPというパブリッククラウドの分

    わかりやすいシステム構成図の書き方 - Qiita
  • BigQueryのパーティション分割テーブルのパーティション毎のデータ量を求める - Qiita

    BigQueryはパーティション分割テーブルを使うことで、パフォーマンスやコストを最適化することができます。 しかし、公式のドキュメントには分割された各パーティション毎のデータサイズを求める方法が書かれていません。 __PARTITIONS_SUMMARY__ メタテーブルを使うことで、パーティションの一覧やそれらの作成・更新時刻を確認することはできますが、このテーブルにサイズの情報はありません。 では、どうやってパーティション毎のサイズを確認できるのでしょうか? 解決策 各パーティションに対して、パーティション内をフルスキャンするクエリをdry runし、推定スキャン量のデータを使う。 partitions = [ '2020-01-01', '2020-01-02', '2020-01-03', ] partitions.each do |partition| sql = "SELEC

    BigQueryのパーティション分割テーブルのパーティション毎のデータ量を求める - Qiita