女性も無いわけじゃないとは思うが、ニュースになるのは男性だよね やっぱ支配願望強いのかな ホモソなんて用語ができるぐらいだもんね 自動で付与される上下関係競争閉鎖空間必要な要素はこの3つぐらいかな 絶対的な上下関係があるので逆らえないし、上の立場からすると逆らわない しかし同列の人間の中では競争があり、協力・裏切り・抜け駆けの可能性が常にある そして外部の介入が期待できない閉鎖空間であること あ、これカイジの世界観やな 男性はカイジやってたのか

(CNN) トランプ米大統領との会談を終えたロシアのプーチン大統領は15日、アラスカで記者会見に臨み、2022年にトランプ氏が大統領であれば、ウクライナでの戦争は起きなかっただろうとの認識を示した。 トランプ氏はかねて、バイデン前政権下でロシアのウクライナ侵攻に伴い発生した全面紛争について、自分なら回避できたと主張してきた。プーチン氏は今回、トランプ氏の主張は正しいと述べ、以前から示してきた立場を改めて表明した。 プーチン氏は22年にバイデン氏の説得を試み、「軍事行動という形で深刻な結果が発生しうる」段階まで事態が進むのを回避するよう伝えていたという。 プーチン氏は「トランプ大統領と私は非常に良好かつ実務的で、信頼に基づく関係を築いた。この道を進めばウクライナでの紛争の終結に至ることができる、それは早ければ早いほど良いと確信している」とも述べた。
むしろ逆効果だって。 なぜなら、ああいう人は怒りたくて怒ってるんだよ。 常に何かしら怒る理由を探して生きてる。 「そうめんがいい」って言ったところで、どうせ別の理由を見つけて怒ってくる。 そもそも「〇〇でいい」なんて日常会話で普通に使うだろ。 そんなもんに一々キレてたら、一日何回怒らないといけないんだよって話。 怒りって結局、脳内で快楽になってるからやめられないんだよな。 だから寄り添えば寄り添うほど、逆に怒りの燃料を与えてるようなもん。 本人のためにもならないし、関わるだけこっちが消耗するだけだぞ。
Kafkaでは送達保証のレベルをこの3つから選択し設定することが可能ですが、 当初Kafkaは At Least Once を実現する製品としてリリースされました。 At Least Onceを実現するための概念として、AckとOffset Commitというものがあります。 Ack Brokerがメッセージを受け取った際に、Producerに対して受け取ったことを返答すること。ProducerがAckを受け取らなかった場合、再送するべきだと判断することができる。 Offset Commit ConsumerがBrokerからどこまでメッセージを受け取り、Consumer側の処理が完了したかを知らせること。 ※オフセット:基準となる位置からの差・距離 オフセットという言葉にもあるように、BrokerとConsumerのやり取りでは、 「どこまで送信したか」「どのまで処理が完了したか」 とい
始めに 前回に引き続きApache Kafkaについて勉強したことをまとめてみました。 おさらいとして、前回の記事に書いた内容も含んではいますが、基礎的な知識に関しては以下の記事を読んでいただくようお願いします。 今回は特に、「Kakfaをよりうまく使いこなすために」という観点で、いくつかの知識をピックアップして紹介していきたいと思います。 この記事の対象者 ・Apache Kafkaの勉強を始めた方 ・Apache Kakfaに関する基礎的な知識を得たい方 この記事で伝えること ・Apache Kafkaを支える仕組み ・Apache Kafkaを使いこなすために必要な知識 データのロストと処理継続性のトレードオフ おさらい〜Replicaについて〜 Kafkaでは、異なるBrokerに同一TopicのPartitionを分散して配置します。 その中で一つのPartitionがReade
Streams for Apache Kafka の リリースサイクルと Zookeeper のサポートについて レッドハットのソリューションアーキテクトの森です。 Red Hat の Apache Kafka 製品「Streams for Apache Kafka」(旧 Red Hat AMQ Streams) は、2025年3月に LTS版の 2.9 をリリースしました。 このバージョンでは Zookeeper も KRaft も両方サポートされていますが、次のバージョン(3.0)から Zookeeper のサポートが終了する予定です。 そのため、2.9 以降に Kafka クラスタを新たに構築する場合や、既存の Zookeeper モードを継続利用している場合でも、KRaft モードへの移行が必須となってきます。 access.redhat.com ZookeeperとKRaftの違
40代なんだがバーベキュー一度もしたことないって今気付いた。 林間学校はカレーや豚汁だったし子供会のキャンプもカレーや焼きそばだった。 大学の時も社会人になってもキャンプ行くアウトドア派の友人はいなくてキャンプはおろか山にすら行ってない。 何が怖いってバーベキューしたことないのにバーベキューしたと思い込んでたことだ。 皆でバーベキューの話してて、あの焦げた玉ねぎが美味いんだよなーとか片付け大変だよねーとかバーベキューあるあるを実体験のように語っていた。経験してないのに。 バーベキューってアニメや漫画やドラマで当然のように出てたしネット記事にもよくなづてたから自分も経験済みだと勘違いしてたのかもしれない。 あぁこわいこわい。
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 著者: 伊藤 雅博, 株式会社日立製作所 はじめに 本稿ではApache Kafkaを構成するコンポーネントの1つである、Kafka Streamsの概要とユースケースを紹介します。Kafka Streamsのより詳細なアーキテクチャや具体的な構築手順については、次回以降の記事で紹介します。 記事一覧: Kafka_Streamsの概要とユースケース(本稿) Kafka Streamsのアーキテクチャとチューニングポイント Kafkaクラスタを構築してKafka Streamsを試す(Podmanコンテナ環境編) Kafka Strea
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 初版: 2018/10/12 著者: 伊藤 雅博, 株式会社日立製作所 はじめに この投稿ではオープンソースカンファレンス2017.Enterpriseで発表した「めざせ!Kafkaマスター ~Apache Kafkaで最高の性能を出すには~」の検証時に調査した内容を紹介します(全8回の予定)。本投稿の内容は2017年6月にリリースされたKafka 0.11.0 時点のものです。 第3回目となる今回は、Kafkaの推奨システム構成とネットワーク・ディスク性能の見積もり方法について紹介します。 投稿一覧: Apache Kafkaの概要と
前回までの説明でCassandraのインストールと動かすところまでいきました。今回はCassandraのデータモデルを理解して、実際にデータにアクセスしてみましょう。 データはすべて4次元または5次元の連想配列 Cassandraのデータは非常にシンプルなデータモデルを持っています。データはすべて4次元または5次元の連想配列のようになっています。 4次元の場合は以下の形で値にアクセスします。 [キースペース][カラムファミリ][キー][カラム] そして5次元の場合は以下の形でデータを特定します。 [キースペース][カラムファミリ][キー][スーパーカラム][カラム] Cassandraのデータモデルは以下の4つの概念で成り立っています。 カラム: データの最小単位。実際のキーと値、そしてタイムスタンプを持つ。 スーパーカラム: カラムの集合を扱う単位。 カラムファミリ: カラムまたはスーパ
Apache Kafkaとは? Apache Kafka is an open-source stream processing platform developed by the Apache Software Foundation written in Scala and Java. The project aims to provide a unified, high-throughput, low-latency platform for handling real-time data feeds. (https://en.wikipedia.org/wiki/Apache_Kafka) Apache Kafkaは、ScalaとJavaで書かれたApacheソフトウェア財団によって開発されたオープンソースのストリーム処理プラットフォームである。このプロジェクトは、リアルタイムのデー
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 初版: 2018/9/28 著者: 伊藤 雅博, 株式会社日立製作所 はじめに この投稿ではオープンソースカンファレンス2017.Enterpriseで発表した「めざせ!Kafkaマスター ~Apache Kafkaで最高の性能を出すには~」の検証時に調査した内容を紹介します(全8回の予定)。本投稿の内容は2017年6月にリリースされたKafka 0.11.0 時点のものです。 第1回目となる今回は、Apache Kafkaの概要とアーキテクチャについて紹介します。 投稿一覧: Apache Kafkaの概要とアーキテクチャ (本投稿)
################# # HEAP SETTINGS # ################# # Heap size is automatically calculated by cassandra-env based on this # formula: max(min(1/2 ram, 1024MB), min(1/4 ram, 8GB)) # That is: # - calculate 1/2 ram and cap to 1024MB # - calculate 1/4 ram and cap to 8192MB # - pick the max # # For production use you may wish to adjust this for your environment. # If that's the case, uncomment the -X
Apache Cassandraで、クラスタを組んでみたいと思います。 Apache Cassandraのバージョンは、3.9とします。 クラスタの組み方ですが、以下のドキュメントに沿って行えばOKです。 ※ここでは、単一データセンターの場合を対象にします 複数ノード・クラスター(単一データ・センター)の初期化 対象の環境 クラスタは、今回は3台で構成します。 各Nodeは、それぞれ 172.17.0.2 … Seed Node 172.17.0.3 172.17.0.4 とします。ここで、Seed Nodeというのは、起動時の最初のNodeと捉えればOKそうで、それ以降の意味はない みたいです。他のNodeは、起動時にSeed Nodeに指定されたNodeを参照するように設定します。 Seed Nodeの設定 では、まずはSeed Nodeの設定を行います。 Cassandraが起動して
# cat /etc/*release CentOS Linux release 7.8.2003 (Core) NAME="CentOS Linux" VERSION="7 (Core)" ID="centos" ID_LIKE="rhel fedora" VERSION_ID="7" PRETTY_NAME="CentOS Linux 7 (Core)" ANSI_COLOR="0;31" CPE_NAME="cpe:/o:centos:centos:7" HOME_URL="https://www.centos.org/" BUG_REPORT_URL="https://bugs.centos.org/" CENTOS_MANTISBT_PROJECT="CentOS-7" CENTOS_MANTISBT_PROJECT_VERSION="7" REDHAT_SUPPORT_PROD
はじめに Azure上に仮想サーバを構築する際、PackerとTerraformを使ったのでそのときのまとめ。 前提 MacOS上で作業 Azure とは Microsoftが提供するクラウドサービス。 AWSやGCPの仲間である。 Packer とは Packerとは、HashiCorp社が開発しているオープンソースのイメージ作成ツール。 JSONファイルで記述した設定ファイルからイメージを構築することができる。 プロビジョニングは、シェルをJSONファイル内にガリガリ書くこともできるが、Ansibleのplaybookを指定することもできる。 Terraform とは Terraformとは、同じくHashiCorp社が開発しているIaC(Infrastructure as Code)。 インフラの構成をコード管理できる。 AWS, Azure, GCP に対応しているので、反映先のク
前までは最近は Azure VM を使うことがほぼ無くなっていたのですが、最近は GPU インスタンスが必要なケースで VMSS の利用を検討することが多くなってきたので、VM Image のカスタマイズを自動化する際に役立つ HashiCorp Packer を触っておきました。 Azure に限ると Packer がベースとなっている Azure Image Builder が用意されていますが、まずはベースとなっている Packer を直接触っておいた方が理解が深まるはずです。 公式ドキュメントにも Packer を使って VM Image を作成する手順が紹介されているので、基本はこのドキュメントを見ながらやればよいのですが、全体的に古い感じだったので定義の参考程度に留めておきました。 Packer が行っていることはテンポラリの VM を作成し、SSH などで接続しスクリプトを実
SSSDを動かすだけならsssdだけで大丈夫です。 sssd-toolsとsssd-dbusをインストールすると、sssctlというコマンドが利用できるようになり、 SSSDの設定を確認する時などに使えます。 sssctlは偶然見つけて使ってみたのですがわりと良い感じ。 連携先となるOpenLDAPの準備 OpenLDAPを準備する方法はなんでもいいんですが、気をつけることがいくつかあります。 LDAPS通信が必須 SSSDのプロバイダとしてLDAPを利用するとき、LDAPS通信が必須になります。 sudo設定用のスキーマを追加する sudo設定はsudoRoleというobjectClass内で定義されている属性から参照します。 LDAPでobjectClass: sudoRoleが利用出来るようにしておいてください。 特にsudoRoleのスキーマを追加するのを見落としていて、 しばらく
OpenLDAP と仲間たち Advent Calendar 2015 5日目。 OpenSSHの公開鍵は通常、ホームディレクトリの下($HOME/.ssh/authorized_keys)に配置してると思いますが、サーバーがー多くなってくると集中管理したいですよね。 OpenSSHはファイルだけでなくLDAPに格納された公開鍵を利用して認証を行うこともできます。 CentOS6の古いOpenLDAPはopenssh-ldapパッケージをインストールし、スキーマをincludeするだけで良かったのですが、CentOS/RHEL7系のOpenLDAPはcn=configデータベースを利用するようになったため、少々面倒になりました。 ここではCentOS7/RHEL7で、SSH公開鍵をOpenLDAPに投入して認証する方法を解説します。 OpenLDAPのインストールまず、openldapとo
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く