エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Dynamic memory allocation inside the kernel
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Dynamic memory allocation inside the kernel
Hello, (I am not ashamed of asking again this question) Is it possible to allocate global memory ... Hello, (I am not ashamed of asking again this question) Is it possible to allocate global memory dynamically inside the CUDA kernel? If it is possible, how far is it a good practice ? (is it efficient ?) Thank you. hi, yes, it possible. We use this to do reduction on the kernel like this: __global__ void loop_red_arn_47_cuda_kernel(float a[], CudaIndexType a0004, CudaIndexType a0003, CudaIndexType

