Ошибка памяти в программе CUDA для Fermi GPU
Я столкнулся со следующей проблемой на графическом процессоре GeForce GTX 580 (класс Ферми).
Просто чтобы дать вам некоторый фон, я читаю однобайтовые образцы, упакованные следующим образом в файл: реальный (сигнал 1), воображаемый(Сигнал 1), реальный(сигнал 2), воображаемый(Сигнал 2). (Каждый байт-это знаковый символ, принимающий значения от -128 до 127.) Я считываю их в массив char4 и использую ядро, приведенное ниже, чтобы скопировать их в два массива float2, соответствующие каждому сигналу. (Это просто анекдот. изолированная часть большой программы.)Когда я запускаю программу с помощью CUDA-memcheck, я получаю либо безусловное unspecified launch failure
, либо одно и то же сообщение вместе с User Stack Overflow or Breakpoint Hit
или Invalid __global__ write of size 8
в произвольных индексах потока и блока.
Основной код ядра и связанный с запуском код воспроизводится ниже. странно то, что этот код работает (и cuda-memcheck не выдает ошибок) на графическом процессоре не Ферми-класса, к которому у меня есть доступ. Еще я заметил, что Ферми не дает ошибки для N
меньше, чем 16384.
#define N 32768
int main(int argc, char *argv[])
{
char4 *pc4Buf_h = NULL;
char4 *pc4Buf_d = NULL;
float2 *pf2InX_d = NULL;
float2 *pf2InY_d = NULL;
dim3 dimBCopy(1, 1, 1);
dim3 dimGCopy(1, 1);
...
/* i do check for errors in the actual code */
pc4Buf_h = (char4 *) malloc(N * sizeof(char4));
(void) cudaMalloc((void **) &pc4Buf_d, N * sizeof(char4));
(void) cudaMalloc((void **) &pf2InX_d, N * sizeof(float2));
(void) cudaMalloc((void **) &pf2InY_d, N * sizeof(float2));
...
dimBCopy.x = 1024; /* number of threads in a block, for my GPU */
dimGCopy.x = N / 1024;
CopyDataForFFT<<<dimGCopy, dimBCopy>>>(pc4Buf_d,
pf2InX_d,
pf2InY_d);
...
}
__global__ void CopyDataForFFT(char4 *pc4Data,
float2 *pf2FFTInX,
float2 *pf2FFTInY)
{
int i = (blockIdx.x * blockDim.x) + threadIdx.x;
pf2FFTInX[i].x = (float) pc4Data[i].x;
pf2FFTInX[i].y = (float) pc4Data[i].y;
pf2FFTInY[i].x = (float) pc4Data[i].z;
pf2FFTInY[i].y = (float) pc4Data[i].w;
return;
}
Еще одна вещь, которую я заметил в своей программе, заключается в том, что если я закомментирую любые два оператора присваивания char-to-float в моем ядре, ошибки памяти не будет. еще одна вещь, которую я заметил в своей программе, заключается в том, что если я закомментирую либо первые два, либо последние два оператора присваивания char-to-float в моем ядре, ошибки памяти не будет. Если я комментирую один из первых двух (pf2FFTInX
), а другой из вторых двух (pf2FFTInY
), ошибки все равно возникают, но меньше часто. Ядро использует 6 регистров со всеми четырьмя операторами присваивания, раскомментированными, и использует 5 4 регистры с двумя закомментированными операторами присваивания.
-m32
, запуск без X windows и т. д. но поведение программы остается тем же самым.
Я использую драйвер CUDA 4.0 и среду выполнения (также пробовал CUDA 3.2) на RHEL 5.6. Вычислительные возможности GPU 2.0.
Пожалуйста, помогите! Я мог бы опубликовать весь код, если кто-то заинтересован в его запуске на своих картах Ферми.
обновление: просто для галочки я вставил __syncthreads()
между pf2FFTInX
и pf2FFTInY
операторами присваивания, и ошибки памяти исчезли для N
= 32768. Но при N
= 65536 я все равно получаю ошибки.<--
Это продолжалось недолго. Все еще получаю ошибки.
UPDATE: в продолжение странного поведения, когда я запускаю программу с помощью cuda-memcheck, я получаю эти 16x16 блоков разноцветных пикселей, распределенных случайным образом по всему экрану. Этого не происходит, если я запускаю программу напрямую.