This domain may be for sale!
目次 おことわり 論文を書くときの作業に関すること 辞書はどんなふうに使うとよいか スペルチェック 論文の表記法・形式に関すること コンマ,ピリオド,セミコロン 単語の頭文字による略語とその表記 論文の表題,セクションのタイトル,図のキャプションなどにおける大文字と 小文字 フォントについての注意 "a MIMD machine" と "an MIMD machine" 論文の文体に関すること 英語論文における一人称複数 "we" 文頭の "And", "But" 文中の "and", "but" 名詞の単数形と複数形,"a"と"the" 主部と述部の長さのバランス おまけ 論文にそぐわない表現 知っていると便利な表現 おことわり この文書は,英語で論文を書く場合に文体その他で最低限注意して欲しいなぁ と私が思うことを整理したものである.「これが正しい英語論文だ」と言っているわけではなくて
研究の息抜きに実装してみました。 参考文献は有名なこちらです。 Estimating a Dirichlet distribution (T.Minka, 2003) 二項分布の共役事前分布であるベータ分布から、n個の確率が生成されたとします。 この確率ベクトルからベータ分布のパラメータaとbを最尤推定にて求める関数が以下です。 newton_beta<-function(x,shape1=1.0,shape2=1.0,eps=0.0001){ euqlid<-function(y){ return(sqrt(sum(y*y))) } N <- length(x) alpha <- c(shape1,shape2) pn <- 0 while(TRUE){ palpha <- alpha #gradient g <- c(N * digamma(sum(alpha)) - N * diga
Perl のアクセサモジュールとしては、Class::Accessor::Fast が人気すね。 # これは例 package Hoge; use base 'Class::Accessor::Fast'; __PACKAGE__->mk_accessors(qw( req )); sub new { my $class = shift; bless { url => 'http://e8y.net/', req => HTTP::Request->new, }, $class; } こんな風な、ハッシュに bless するよくあるクラスの場合に、そのハッシュのキーと同じ名前でgetterを作成しておくと、属性にアクセスする場合($hoge->url)と属性のオブジェクトのメソッドを呼ぶ場合($hoge->req->header())に、ブレース{} が途中に入ってこないので見やすいし、そ
60行で作るPHP用テンプレートエンジン やってしまった・・・。 方針: PHPのように<?php・・・?>が無いのでそのまま表示と(foreach|if|unless)に対応。[% $c{title} %]で普通に表示(TTっぽい?)[# $c{title} #]でHTMLエスケープ表示package SixtyLinesTemplate; use strict; use warnings; our $VERSION = '0.01'; sub convert { return unless defined(my $str = shift); $str =~ s{&}{&}gso; $str =~ s{<}{<}gso; $str =~ s{>}{>}gso; $str =~ s{\"}{"}gso; $str; } sub include_temp
Blog Search when-present<#else>when-missing. (These only cover the last step of the expression; to cover the whole expression, use parenthesis: (myOptionalVar.foo)!myDefault, (myOptionalVar.foo)?? ---- ---- FTL stack trace ("~" means nesting-related): - Failed at: ${entry.path} [in template "__entry.ftlh" at line 3, column 25] - Reached through: #include "__entry.ftlh" [in template "entry.ftlh" at
natural language processing blog にNon-parametric as memorizing, in exactly the wrong way?というポストがあった。言語モデリングはここ数年でだいぶ研究が進展したところで、ディリクレ過程とかなんだとか、数理的に精緻なモデルが(計算機の高度化も相まって)登場してきて、いろいろ分かってきているホットな分野である。 最近 PPM について調べたが、daiti-m さんの「PPM, 言語モデル, Burrows-Wheeler Transform」とあと「PPMと言語モデル (2)」いうポストを改めて読んでみて、ようやく分かってきた気がする。 Google 日本語 N グラムみたく巨大なデータを使っていると、スムージングなにそれ? と言っていてもいいくらい(機械翻訳でも Google 1T gram を用いた研究で
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く