齊藤祐生(ふらり堂 店主) 18歳で古本屋でバイトをはじめて以来、古本の虜に。図書館や出版社で働きましたが、やはり古本が大好き! 34歳で独立後、神戸にてふらりと気軽に立ち寄れる古本・趣味の店「ふらり堂」をオープン。古本まみれの日々を送っておりマス。
![本や漫画の黄ばみを取るのは意外と簡単! 表紙・製本傷みの修復方法をまとめて解説 | となりのカインズさん](https://cdn-ak-scissors.b.st-hatena.com/image/square/c770f58fb6df7b4f59daa42b91cc3b7c9b283837/height=288;version=1;width=512/https%3A%2F%2Fd2tzd06cwmvahj.cloudfront.net%2Fwp-content%2Fuploads%2F2022%2F01%2F19173858%2Ffurarido_-image42_catch-min.jpg)
Claude 3、気になりますよね 今まで触ったことないけど、興味を持った方へ、入門するところまでのご案内です。 とりあえずチャットがしたい claude.aiにアクセスして、アカウントを作成します。 メールアドレスを入力する方法と、Googleのアカウントと紐付ける方法があります。 私はGoogleアカウントとの紐づけを行いました。 ログインができたら、もう、チャットができます。ChatGPTのような感じです。 日本語も自然に回答してくれます。 左下にClaude 3 Sonnetとあります。これはClaude 3のモデルの名称で、SonnetはClaude 3のシリーズの中で真ん中のモデルです。 Haiku - ハイク Sonnet - ソネット Opus - オーパス 名前からモデルの特徴を想像してもらいました。概ね特徴を捉えているのではないでしょうか。 Claude 3の特徴として
ボードゲームやアクションゲーム、各種ツールやシミュレーションなどさまざまなソフトが100日間に作られた いままで数えきれないほどのプログラマーに会ってインタビューもさせてもらってきたが、久しぶりに若いプログラマーの話を聞いてきた。ここ1、2年では U22グランプリの男子中学生や全国小中学生プログラミング大会の受賞者たちだが、今回は、ChatGPTを使ってプログラムを書きまくった女子大生である。 彼女は X(Twitter)の自分のアカウントで1日1本のソフトを100日間連続で作るというイベントをやっていて「おっ、頑張っているな!」と思って応援していた。「こんなゲームを作ってほしい」などとリクエストを出したりもしていたのだが、どうも私が想像していたものと内容もやり方も違っていたようである。 目下、ソフトウェア産業の最大のテーマは「我々は人間の言葉でプログラムを書くようになるだろうか」というこ
Your browser is not supported anymore. Please update to a more recent one.
3. APIキーの取得APIキーの取得手順は、次のとおりです。 (1) 「Anthropic」のサイトのAPIの「Get API Access」をクリックしてログイン。 はじめての場合は、アカウントを新規作成します。 (2) ダッシュボードを確認。 初回は「Get started testing Claude with $5 in fee credits.」で$5分のクレジットを取得できます。 (3) 「Get API Keys → Create Key」でAPIキーを作成。 APIキーはGoogle Colabで利用します。 4. Colab での実行Colabでの実行手順は、次のとおりです。 (1) パッケージのインストール。 # パッケージのインストール !pip install anthropic(2) 環境変数の準備。 左端の鍵アイコンで「ANTHROPIC_API_KEY」を設
このnoteは、Regonn&Curry.fm というポッドキャストの第111回の収録後記です。 話したことはこちらのscrapboxから。 111回では、KaggleOpsを考える ~ MLflow + Colaboratory + Kaggle Notebook ~やGPUについて話しました。 110回の放送で、コンペで獲得した賞金についても話しますと予告したのですが、放送で話せなかったため、この収録後記で書いてみます。 正確性のためにやや長くなってしまいました。 また、この内容は2021年1月時点の法令に基づき書いており、また、私の個人的な解釈で書いているため、実際に賞金を獲得した場合には、ご自身で法律を読んだり、税理士に相談するなどして判断ください。 また、このテーマについては、112回でも話す予定です。 所得税の仕組み所得税の計算上、まず「総所得金額」という1年の所得の金額を算出
こんにちは。ミクシィ AI ロボット事業部でしゃべるロボットを作っているインコです。 この記事は ミクシィグループ Advent Calendar 2018 の5日目の記事です。 この記事の目的 この記事では2018年現在 DeepLearning における自然言語処理のデファクトスタンダードとなりつつある Transformer を作ることで、 Attention ベースのネットワークを理解することを目的とします。 機械翻訳などの Transformer, 自然言語理解の BERT やその他多くの現在 SoTA となっている自然言語処理のモデルは Attention ベースのモデルです。 Attention を理解することが今後の自然言語処理 x Deep Learning の必須になってくるのではないでしょうか。 この記事にかかれているコード (Github) 歴史 - RNN から
新しいデータ処理ライブラリの学習はもう不要! Python 初学者のための Ibis 100 本ノックPython機械学習pandasデータ分析ibis-framework Information 2024/1/14: Kaggle notebook for Ibis Kaggle で Ibis を使用するための Sample Notebook を用意しました。Kaggle でもぜひ Ibis をご活用下さい。 🦩 [Ibis] Kaggle-Titanic-Tutorial Ibis 100 本ノック補足記事 Ibis 100 本ノックについて、よりスマートな書き方等について @hkzm さんが補足記事を書いてくれました(この記事を参考にコンテンツのほうもブラッシュアップしたいと思います)。 Ibis 100 本ノックの記事を受けて はじめに どうもこんにちは、kunishou です。
今回の記事では下記のような悩みを解決します。 「LightGBMというワードをよく目にするので、LightGBMについて知りたい」 「LightGBMのpythonでの実装方法が知りたい」 早速解説していきます。 LightGBMとは Li... 今回は、「住宅価格予測問題」を使って、「データの前処理、LightGBMでモデル構築、Optunaを使ってハイパーパラメータを調整し予測精度をup」という機械学習(回帰問題)の一連の流れを解説していきます。 まずはデータの読み込みと前処理から解説します。 データの読み込みと前処理 下記のコードで住宅価格予測のデータを読み込み、dfとします。 (下記のコードは覚える必要ないです。コピペしてデータを読み込んでください) dfは81個の列、1460個のデータからなります。 from sklearn.datasets import fetch_openm
LightGBMとearly_stopping LightGBMは2022年現在、回帰問題において最も広く用いられている学習器の一つであり、機械学習を学ぶ上で避けては通れない手法と言えます。 LightGBMの一機能であるearly_stoppingは学習を効率化できる(詳細は後述)人気機能ですが、この度使用方法に大きな変更があったようなので、内容を記事にまとめたいと思います 変更の概要 early_stoppingを使用するためには、元来は学習実行メソッド(train()またはfit())にearly_stopping_rounds引数を指定していましたが、2021年の年末(こちらのissues)よりこの指定法は非推奨となり、コールバック関数lightgbm.early_stopping()で指定する方式へと変更になりました。 新たな方式であるコールバック関数によるearly_stopp
上記の方々の推奨本 2票(naotaka1128、カレーちゃん)[第2版]Python 機械学習プログラミング 達人データサイエンティストによる理論と実践 (impress top gear) 1票(naotaka1128)PythonとKerasによるディープラーニング 1票(naotaka1128)scikit-learnとTensorFlowによる実践機械学習 1票(mlm_kansai)機械学習のための特徴量エンジニアリング ―その原理とPythonによる実践 (オライリー・ジャパン) 記事の概要 Kaggle参戦記 〜入門からExpert獲得までの半年間の記録 & お役立ち資料まとめ〜 *1) 特徴量エンジニアリング 次元削減系 LDA、PCA、tSNE Kaggle TalkingData Fraud Detection コンペの解法まとめ(基本編) 「カテゴリー変数を組み合わ
時系列データ関連のお勉強をしたときに、必ず登場する厄介な概念の1つが「定常性(Stationarity)」です。 定常性(Stationarity)は、時系列データの統計的な特性(平均、分散、自己相関など)が時間によらず一定であるという性質を指します。これは、時系列分析において重要な前提条件となる場合が多いです。 具体的には、定常性には以下のような特性があります。 平均が時間によらず一定: これはデータの「中心」が時間とともに変化しないことを意味します。つまり、ある時点での平均値が別の時点での平均値と同じであることを示します。 分散が時間によらず一定: これはデータの「ばらつき」が時間とともに変化しないことを意味します。つまり、ある時点での分散が別の時点での分散と同じであることを示します。 自己共分散(または自己相関)が時間によらず一定: これは2つの時点間の関連性がラグにのみ依存し、時間
多くの論文や学会発表、大学院生が持ってくる解析結果で多変量回帰分析が使われていますが、結構間違って使ってるなー、と思うことが多いです。自分のところの大学院生が持ってきた内容だとその場で指摘できますし、少し前に学会でとても若い先生が指導してくれる人がいないと困っていたので、回帰分析の不備を伝えたところ、とても喜んでくれました。こう言う情報は意外と若い先生方に届いていなくて、自分のできる範囲で伝えられたらな、と思いました。 今回はよく見られる回帰分析の誤った使い方を修正するための、回帰分析について知っておくべき前提条件をまとめます。 どの回帰分析を使うかは従属変数次第 多変量回帰分析は1つの被説明変数(従属変数)と複数の説明変数(独立変数)を投入し、説明変数から被説明変数を導くための回帰式を作ります。多変量回帰分析には重回帰分析、ロジスティック回帰分析、Cox回帰分析と種類がありますが、どの回
機械学習は現代社会において多くの分野で利用されています。 しかし、モデルの設定やハイパーパラメータの調整など、そのプロセスは非常に煩雑であり、多くの時間と専門知識が要求されます。そこで登場するのが「自動機械学習(AutoML)」です。 この記事では、AutoMLの中でも比較的人気のあるライブラリであるAuto-Sklearnを使って、誰でも簡単に機械学習モデルを構築できる方法を解説します。 基本的な使い方から応用例まで、Pythonの実行例付きでご紹介。機械学習に新しい風を吹き込むAuto-Sklearnで、あなたもデータ解析のプロになりましょう! はじめに なぜ自動機械学習(Auto ML)が必要なのか? 機械学習は今や多くの業界で応用されています。医療から金融、製造業まで、データを解析して有用な情報を引き出す力は計り知れません。 しかし、その一方で、機械学習モデルを設計、訓練、テストす
はじめに 約5年前にKaggleを始めてから、昨年の12月にKaggle Competitions Grandmasterになることができました。この機会に、Kaggleを始めてからGrandmasterになるまでの過程を振り返ってみたいと思います。 Kaggleに参加する前は、機械学習に関する知識はほとんどありませんでしたが、質の高い公開ノートブックやディスカッション、日本のKaggleコミュニティ、頼りになるチームメイトのおかげで、なんとかKaggle Grandmasterになることができました。 だらだらと振り返っていたら、思ったより長文になってしまったので、適当に飛ばしつつ読んでいただけると幸いです。 www.kaggle.com はじめに バックグラウンド 参加前スペック 大学院での研究テーマ Kaggleとの出会い 下準備期間 参加コンペ振り返り 初参加~Expoertになる
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く