% git clone https://github.com/tanreinama/gpt2-japanese Cloning into 'gpt2-japanese'... remote: Enumerating objects: 91, done. remote: Counting objects: 100% (91/91), done. remote: Compressing objects: 100% (60/60), done. remote: Total 132 (delta 40), reused 79 (delta 30), pack-reused 41 Receiving objects: 100% (132/132), 1.19 MiB | 1.35 MiB/s, done. Resolving deltas: 100% (59/59), done. % % cd gp
ある程度コードを書いてから、自分の設計ミスに気づいて今書いたところを直して…と思ったらその修正もおじゃんなので再び書きなおして…という三歩進んで二歩下がる水前寺清子式開発を実践している僕です。 vimを1年以上使っていながら今日初めて選択範囲置換の方法を知りました。行単位かファイル単位での置換しかしらなかったので、すごく便利です。これで僕の三百六十五歩のデスマーチも捗りそうです。 というわけでvimでの置換についておさらいしたので覚書。 文字単位で置換 r カーソルを置換したい文字に合わせて r を入力し、その後に置換したい文字を入力すると、カーソルの文字が置換される。 行単位で置換 :s/{置換前文字}/{置換後文字}/[オプション] これでカーソル行内にある文字を置換できる。 置換時のオプションには次の文字が使える g 行の中でマッチしたすべての文字を置換する c マッチするたびに置換
こんにちは。 開発チームのワイルド担当、まんだいです。 git には「パッチ」という仕組みがあります。 git stash でうまく切り抜けられない時にたまに使うことがあるにも関わらず、この超絶簡単なコマンドが覚えられません。 なので、忘れてもいいようにブログに残すことにしました。 パッチを作成する時 パッチを作成する場合は、 git diff コマンドを使用します。 git diff test.txt > test.patch パッチを作りたいだけ作ったら、後は git reset で元通りですね。 パッチファイルさえあれば、この時点の内容にすることが可能です。 ちなみに diff を取るのは、デフォルトで現状のファイルとそのファイルのインデックスの状態になります。 コミット ID を指定して数世代前から diff を取ることもできます。 使ったことはないですが、コミット ID を2つ指
- はじめに - 近年、IT業界のダジャレは熾烈の一途を辿っている(ITだけに) 。 類義語を巧みに取り入れたダジャレ、難読化されたダジャレなどが増加し、一体どれで「初笑い」すれば良いのか悩む若者も少なくない。 そのような背景があり、ダジャレを判定するアルゴリズムの開発も盛んである。 ルールベースによる判定では、@kurehajimeが提案、開発したdajarep *1 や、@fujit33によるShareka *2が存在する。特にSharekaは、ルールベースのロジックにも関わらず、反復型とされる種類のダジャレに対して高い精度での判定を可能にしている。また、機械学習モデルを用いた判定手法として、谷津(@tuu_yaa)らが開発したDajaRecognizer *3がある。DajaRecognizerは、多くのルールベースによって子音音韻類似度をPMIとして定義、Bag-of-Words、
OPTiM TECH BLOG Advent Calendar 2020 12/8 の記事です。 お久しぶりです。R&Dの加藤です。最近買った大きな買い物はDAHONのK3です。 購入したのは8月末ですが、11月に入るまでスタンドが手に入らなかったです。現状の不満点は空気が入れにくいという事だけですね。輪行するには最適な自転車です。 去年執筆したこの記事はいまだに定期的にアクセスがあって嬉しいですね。まだ読んでない方は是非こちらも読んでみてください。 今回の記事はこれの補足に加え、コードを加えた実践的な内容になります。 tech-blog.optim.co.jp 記事執筆のモチベーションとしては、「最近PyCMというライブラリを使い始めたら思いのほか便利だったので伝えたい」という事なんですが、なかなかボリュームのある記事になってしまいました。忙しい人は必要な章だけかいつまんで読んでください
皆さんこんにちは。 @tereka114です。 今年末はKaggleで開催される面白いコンペも多くて日々、エンジョイしています。 最近は巨大なデータを扱うことが増えており、Pandasだと時間がかかりすぎて効率が悪いと感じています。 そのため、データを高速に処理できるcuDFを利用することも多くなってきました。 この記事ではcuDFの魅力と扱う際の注意点を説明していきます。 ※この記事は「Pythonその2 アドベントカレンダー」10日目の記事です。 qiita.com cuDFとは cuDFはNVIDIAさんが開発している、Pandasの代わりに利用することができるGPUのライブラリです。 最も大きな特徴はGPUで計算するため、高速であることです。 主に、カテゴリ変数ごとの平均計算や、テーブル同士の結合といった、時間のかかるテーブル処理で、効果を発揮します。 github.com cuD
Pythonでデータ処理をしている際、numpyにはまらないごちゃごちゃした前処理があり、ちょっと遅いんだよなぁ。。。となること、ないでしょうか。 ルーチンになっている解析であれば高速化を頑張る意味がありそうですが、新しい解析を試行錯誤している最中など、わざわざ高速化のためのコードをガリガリ書いていくのは辛いぐらいのフェーズ、ないでしょうか。 こんなとき、私はJuliaを使っています。Juliaは特別な書き方をしなくても高速になる場合が多く、並列処理も簡単にできます。 julialang.org Julia、いいらしいが名前は聞いたことがあるけど使うまでには至ってない、という方がと思います。今まで使っているコードの資産を書き直すのは嫌ですよね。 しかし、JuliaにはPythonの資産を活かしつつ高速にデータ処理がするための道具がそろっています。 今回の記事はPythonとJuliaをいっ
(3) 互恵効果(同時性) ・総務省が公開している警察官と犯罪認知件数データ (2014年度) : police_crime2014.csv ・都道府県別人口 1,000人あたりの警察官数 (police) ・都道府県別人口 1,000人あたりの刑法犯罪認知件数 (crime) ・出典:総務省平成26年度地方公共団体定員管理調査関係データ、平成26年度『警察白書』。 library("readr") police_crime <- read.csv("police_crime2014.csv") ・データの内容を表示してみる police_crime pref pref_abr police crime 1 osaka osk 2.625018 17.11 2 fukuoka fko 2.277854 13.12 3 aichi aic 1.914967 13.01 4 hyogo hyo
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く