Webアプリケーションにおいて、マルチテナント型、つまり複数のユーザー組織がアプリケーションとデータベースを共有する構成にすることがあります。この構成の持つリスクとして、万が一バグにより他テナントの情報が見えてしまうとそれは情報漏洩となり、重大なインシデントとなってしまうことがあります。この重要性を考えると、「気を付けて実装する」だけではなく、仕組みで漏洩を防ぐような対策には価値があります。 そこで、今回はPostgresSQLの行レベルセキュリティと、SpringAOPによる処理を組み合わせて、ログインしているテナントのデータにしかアクセスできなくする仕組みを実現しました。 導入にあたり考慮した複数の選択肢、乗り越えたいくつかの壁についてご紹介します。 同様の課題を抱えている方の参考にしていただけるような情報をお伝えしたいと思います。
記事を移転しました。今後ともどうぞ、よろしくお願いいたします。 https://python.ms/map-filter/ 以下、旧版 map リストの各要素に関数を適用します。 filter リストの各要素のうち条件に満たないものを削除します。 1. map リストの各要素に関数を適用します。 # リストの各要素を二乗します。 def double(x): return x * 2 lst = [1, 2, 3, 4, 5, 6, 7] for e in map(double, lst): print(e) # 2 # 4 # 6 # 8 # 10 # 12 # 14 2. filter リストから条件を満たす要素だけを取り出します。 # 偶数だけ取得します。 def is_even(x): return x % 2 lst = [1, 2, 3, 4, 5, 6, 7] for e i
※こちらの記事は、プロスタ編集部が現在大変人気の高いPythonの文法記事を公開することで、皆様の学習にお役に立ちたい意図で投稿しております。 参考サイト:【Python入門】JSON形式データの扱い方 【Python入門】JSON形式データの扱い方 Web アプリケーションでデータのやりとりを行う際に、「JSON」という形式でデータをやり取りすることがあります。JSON は C 言語や JAVA などの様々な言語で使われており、もちろん Python でも扱うことができます。今回は、Python で JSON を扱う方法の基礎的な部分について説明します。 目次 1 [JSON とは](##JSON とは) 2 [JSON を扱う](##JSON を扱う) 2.1 [JSON ファイルの読み込み](##JSON ファイルの読み込み) 2.2 [JSON の変換](##JSON の変換) 2
5ch(旧2ch)ではここ数年はTwitterを使用するようになってしまいましたが、ネットのミームの発信地点であって、様々なスラングを生み、様々な文化を作ってきたと思います。 学生時代、2chまとめとか見ていたので、影響を受けてきたネット文化で、感覚値からすると、どうにも流行り廃りがあるようです。 5chの過去ログを過去18年ほどさかのぼって取得する方法と、懐かしいネットスラングのドキュメントに占める出現具合を時系列でカウントすることで、時代の変遷でどのように使用の方法が変化したのか観測することができます。 文末に「orz」って付けたら若い人から「orzってなんですか?」と聞かれて心身共にorzみたいになってる— ばんくし (@vaaaaanquish) October 19, 2018 図1. 今回集計したorzの結果 例えば、今回集計した5chの書き込み500GByte程度のログからで
*Python3系の分を追記しました Pythonによる通信処理 この記事は 慶應義塾大学SFC村井&徳田研 Advent Calendar 2015 の21日目の記事です。 1. はじめに 夏まで「UNIXコマンドってなんやねん」レベルで、ロクに実装もせずに研究意義とかサービスについて語っちゃう自分に嫌気がさして秋学期からPCを触り始めました。 それからSwift,Pythonを触り始めて今はPythonを書いてます。 つまるところプログラミング初心者です。今回はPythonでのソケット通信について書きます。 今回の内容 PythonだけでTCPサーバーを立ててTCPクライアントとソケット通信する。 2. 環境 クライアント OS X --version 10.10.5 Python --version 2.7.10 サーバー CentOS --version 6.5 Python --
皆さんこんにちは お元気ですか。私は元気です。 今日はScikit-learnで扱えるモデルについて紹介したいと思います。気が向いたら追加します。 ※Sampleは割りと公式サイトのを少々改変したもの使っていたりします。ご了承ください。 モデル全般について Parameter パラメータ内容 書き換え対象 閾値 tolの書き換え 初期値 random_stateを入れる 途中経過 verboseを1にする(Defaultは0) 最大回数 max_iter(defaultは永久に止まらない(-1))が選択されていることもある 並列thread数 n_jobsの変更、n_jobs=-1とすると動かせる最大の数となる Method 関数 内容 fit 渡したデータに基いて学習を行う predict 予測する、所属しているクラスが返ってくる get_params パラメータを取得する predic
【重要】サービス終了のお知らせ 平素よりPetalica Paintをご利用いただきありがとうございます。 誠に勝手ながら、この度Petalica Paintは、2025年7月31日をもちまして、サービスを終了させていただくこととなりました。これまで長きにわたりご愛顧いただきましたこと、心より感謝申し上げます。 以下に、サービス終了に関する詳細についてご案内いたします。 サービス終了日: 2025年7月31日 16:00(日本標準時間) サービス終了に伴う対応: サービス終了日時以降は全てのサービスがご利用いただけなくなります。 お問い合わせ: サービス終了に関するご質問やご不明点がございましたら、以下の窓口までお問い合わせください。 お問い合わせフォーム 突然のお知らせとなり、皆様にはご迷惑をおかけいたしますこと、深くお詫び申し上げます。 サービス終了まで残り短い期間ではございますが、引
ディープラーニングは色々な知識が必要です。 「チュートリアル動かしました」で止まったままの人も多いでしょう。 そこで、自分がchainerを理解しながら動かした時の方法を書きます。 大前提 とは言ったものの、誰でも入門は無理なので。 以下が最低限の前提です。 数学:微分積分、行列、確率とか聞いても「ああ、あれね・・・」くらいには思う IT:Pythonがそれなりに分かる。numpyはそこそこ分かる。 機械学習:説明変数とか、目的変数とか分類とかが何となく分かる やる気:引っかかった時に、調べる気力がある ゴール chainerを自分で色々試せるレベルになる。 あくまで試せるレベルになるだけです。 それでも千里の道も一歩からです。 一緒に頑張りましょう。 ちなみになぜchainerか、というと、 入門者が触るには、バランスは良さそうに見えたからです。 最初の最初 ディープラーニングは歴史から
はじめに こんにちは、データ分析部の久保 (@beatinaniwa) です。 今日は義務教育で教えても良いんじゃないかとよく思うWebクロールとスクレイピングの話です。 私自身、日頃は社内に蓄積されるニュース記事データや行動ログをSQLやPythonを使って取得・分析することが多いですが、Web上にある外部データを使って分析に役立てたいというシーンはままあります。 単独のページをガリガリスクレイピングしたいときなどは、下の1年半ぐらい前の会社アドベントカレンダーに書いたような方法でやっていけば良いんですが、いくつもの階層にわかれたニュースポータルサイトやグルメポータルサイトを効率よくクロール+スクレイピングするためには、それに適したツールを使うのがすごく便利です。 qiita.com そこでPython用スクレイピングフレームワークScrapyの登場です。 Scrapy | A Fast
Beautiful Soup¶ Beautiful Soup は、 HTMLおよびXMLファイルからデータを抽出するためのPythonライブラリです。 お気に入りのパーサー(構文解析器)と連携して、パースツリー(構文木)のナビゲート、検索、修正を行うための慣用的な方法を提供します。 これにより、プログラマーは数時間から数日分の作業を節約することがよくあります。 (訳注) 石鹸は食べられない¶ この文章は Beautiful Soup 4.12.0 Documentation の日本語訳です。 以前、”Beautiful Soup”を”ビューティフルソープ”と読んでしまう英語が苦手でちょっぴりHな後輩のために Beautiful Soup 4.2.0 Documentation を翻訳しました。それから10年が経ち、内容が古くなったので、2024年8月時点で最新のドキュメントをあらためて訳し
自分で小さいツールを作る時に心に留めているtipsです. 書き始めたときは「どうせ書捨てだし」と思って書き始めると意外と長い間,もしくはいろんなところで使うことになったりするので,気をつけておくと後から楽になるというような小技です.大規模なソフトウェアの開発ではまた違った流儀があると思います. メインルーチンを関数にする 関数名はなんでもいいのですが,自分は趣味で main() という名前の関数を用意し,メインルーチンは全てそこに書くようにしています. pythonの小さなサンプルコードを見たりすると関数外の部分にベタで実行コードが書かれていたりします.もちろんそれでも動くのですが,以下の2点で後々面倒になることがあります. グローバル変数だらけになり管理が追いつかなくなる:「どうせ小さなスクリプトだし」ではじめると最初は見通しが良くてもだんだんどこでどの変数名を使っているか分からなくなっ
デープラーニングはコモディティ化していてハンダ付けの方が付加価値高いといわれるピ-FNで主に工作担当のtai2anです。 NHKで全国放送されたAmazon Picking Challengeでガムテべったべたのハンドやロボコン感満載の滑り台とかを工作してました。 とはいえ、やっぱりちょっとディープラーニングしてみたいので1,2か月前からchainerを勉強し始めました。 せっかくなので線画の着色をしたいなーと思って色々試してみました。 線画の着色は教師あり学習なので線画と着色済みの画像のデータセットが(できれば大量に)必要です。 今回はOpenCVでカラーの画像から線画を適当に抽出しています。 抽出例 → カラーの画像を集めて線画を作ればデータセットの完成です。(今回は60万枚くらい使っています) ネットワークの形ですが、U-netという最初の方でコンボリューションする時の層の出
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く