「Defraggler」はかなり高速に動作する無料のデフラグソフトで、ドライブ単位だけではなく、ファイルやフォルダ単位でのデフラグも可能。非常にコンパクトにできており、USBメモリなどで持ち歩くことも可能。Windows2000/2003/XP/Vistaで動作し、NTFS/FAT32のファイルフォーマットでデフラグ可能です。 ダウンロードと使い方は以下の通り。 Defraggler - Defragment your files! http://www.defraggler.com/ 以下からダウンロードできます。 Download http://www.defraggler.com/download インストーラを実行したら「OK」をクリック 「Next」をクリック 「I Agree」をクリック 「Next」をクリック 「Install」をクリック 「Finish」をクリック デスクト
Example with O-matrix /Mathlab O>(u,s,v)=svd(x) O>x { [ 1 , 2 ] [ 2 , 3 ] [ 3 , 4 ] } O>[u,s,v]=svd(x) O>u { [ -0.338098 , 0.847952 , 0.408248 ] [ -0.550649 , 0.173547 , -0.816497 ] [ -0.763201 , -0.500857 , 0.408248 ] } O>s { [ 6.54676 , 0 ] [ 0 , 0.374153 ] [ 0 , 0 ] } O>v { [ -0.569595 , -0.821926 ] [ -0.821926 , 0.569595 ] } O>[e,d]=eigen(x'x) O>[e,d]=eigen(x'*x) O>e { [ (0.569595,0) , (-0.821
Welcome to H2, the free SQL database. The main feature of H2 are: It is free to use for everybody, source code is included Written in Java, but also available as native executable JDBC and (partial) ODBC API Embedded and client/server modes Clustering is supported A web client is included No Javascript If you are not automatically redirected to the main page, then Javascript is currently disabled
TinySVM is an implementation of Support Vector Machines (SVMs) [Vapnik 95], [Vapnik 98] for the problem of pattern recognition. Support Vector Machines is a new generation learning algorithms based on recent advances in statistical learning theory, and applied to large number of real-world applications, such as text categorization, hand-written character recognition. List of Contents What's new Fe
The gboost toolbox is a framework for classification of connected, undirected, labeled graphs. A typical graph is shown on the right: each node and edge is labeled by a discrete value. The gboost classifiers check for the presence of certain subgraphs in the larger graph. The subgraphs being checked are optimally determined by discriminative subgraph mining. The classification hypotheses is interp
SVD decomposition The singular value decomposition of MxN matrix A is its representation as A = U W VT, where U is an orthogonal MxM matrix, V - orthogonal NxN matrix. The diagonal elements of matrix W are non-negative numbers in descending order, all off-diagonal elements are zeros. The matrix W consists mainly of zeros, so we only need the first min(M,N) columns (three, in the example above) of
Background JAMA is a basic linear algebra package for Java. It provides user-level classes for constructing and manipulating real, dense matrices. It is meant to provide sufficient functionality for routine problems, packaged in a way that is natural and understandable to non-experts. It is intended to serve as the standard matrix class for Java, and will be proposed as such to the Java Grande For
Latent semantic analysis (LSA) is a technique in natural language processing, in particular distributional semantics, of analyzing relationships between a set of documents and the terms they contain by producing a set of concepts related to the documents and terms. LSA assumes that words that are close in meaning will occur in similar pieces of text (the distributional hypothesis). A matrix contai
0.1 0.1.1 Latent Semantic Indexing Latent Semantic Indexing :LSI の次元まとめて次元を下げるという作業を行 なうわけである。 さて、次元を下げるということは当然情報 の損失を伴うわけだが、この損失を最小限に くいとめるために最小二乗誤差 という考え方 で望む。 2 とは ベクトル空間モデルではタームの生起が独 立であることを仮定して、各タームを一つの 次元に対応させるベクトル空間を作った。し かし、実際にはターム間の独立性は保証され ない。例えば、情報検索の分野では「ベクト ル」と「空間」は高い相関を持つことは容易 に予想できる。この問題への対策としては以 下の 2 点が重要である。 0.1.2 特異値分解 LSI で 用 い る 数 学 的 し か け は 特 異 値 分 解 (Singular Value D
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く