linear-regression

Я новичок в numpy, но не в python. У вас есть вопрос о numpy способе сделать это, рассмотрим: Edit : исправление функции* * def _my_function(weights, features, bias): # the pure python way value = 0. for i in range(len(weights)): value += (weights[i]*features[i]) return value+bi...

Мне интересно, как можно было бы решить следующую задачу в R. Имеем вектор v (из n элементов) и матрицу B (размерности m x n). Например: > v [1] 2 4 3 1 5 7 > B [,1] [,2] [,3] [,4] [,5] [,6] [1,] 2 1 5 5 3 4 [2,] 4 5 6 3 2 5 [3...

Моя структура данных такова: State N Var1 Var2 Alabama 23 54 42 Alaska 4 53 53 Arizona 53 75 65 Var1 и Var2-агрегированные процентные значения на уровне штата. N - число участников в ...

Таким образом, у меня есть некоторые проблемы с пониманием простой линейной регрессии. Я много читал, так что у меня есть основные идеи в голове, но я не могу полностью следовать, когда мы делаем один. Итак, у меня есть следующее уравнение: yi = a + bxi + ei Хорошо, я понимаю, что это уравнение для прямой...

Если вы попытаетесь запустить полиномиальную регрессию, где x^2 определяется в функции lm(), полиномиальный член будет отброшен из-за особенностей. Однако, если мы определяем полиномиальный член вне lm(), модель подходит правильно. Похоже, что это должно работать одинаково в обоих направлениях. Почему нам ...

когда мы должны предсказать значение a категорический (или дискретный) результат мы используем логистическая регрессия. Я считаю, что мы используем линейная регрессия также прогнозируют значение результата с учетом входных значений. тогда, в чем разница между двумя методологиями?...

Я не могу найти библиотеки python, которые делают множественную регрессию. Единственное, что я нахожу, - это простая регрессия. Мне нужно регрессировать мою зависимую переменную (y) против нескольких независимых переменных (x1, x2, x3 и т. д.). например, с такими данными: print 'y x1 x2 x3...

Как я могу сказать R использовать определенный уровень в качестве ссылки, если я использую двоичные независимые переменные в регрессии? Это просто использование некоторого уровня по умолчанию. lm(x ~ y + as.factor(b)) С b {0, 1, 2, 3, 4}. Допустим, я хочу использовать 3 вместо нуля, который используется...

Я пытаюсь создать линейную регрессию на точечной диаграмме, которую я создал, однако мои данные находятся в формате списка, и все примеры, которые я могу найти, используют polyfit требуют использования arange. arange не принимает списки. Я искал повсюду о том, как преобразовать список в массив, и ничего не ка...

в чем преимущество использования градиентного спуска в пространстве линейной регрессии? похоже, что мы можем решить проблему (найти theta0-n, что минимизирует стоимость func) с помощью аналитического метода, поэтому почему мы все еще хотим использовать градиентный спуск, чтобы сделать то же самое? спасибо ...