Geschreven door studenten die geslaagd zijn Direct beschikbaar na je betaling Online lezen of als PDF Verkeerd document? Gratis ruilen 4,6 TrustPilot
logo-home
Tentamen (uitwerkingen)

HW1 Q6 Linear Regression Optimization Methods) University of Michigan EECS 445

Beoordeling
-
Verkocht
-
Pagina's
5
Cijfer
A+
Geüpload op
15-02-2023
Geschreven in
2022/2023

EECS 445 ­ Introduction to Maching Learning HW1 Q6 Linear Regression Optimization Methods) ~~~~~~ Follow the instructions in the homework to complete the assignment. """ import numpy as np import math import t as plt from helper import load_data def calculate_squared_loss(X, y, theta): loss = 0.0 for i in range(): loss = loss + ((y[i]­(theta, X[i]))**2)/2 loss = loss/ return loss def calculate_RMS_Error(X, y, theta): """ Args: X: , shape (n, d) y: , shape (n,) theta: , shape (d,). Specifies an (d­1)^th degree polynomial Returns: E_rms: float. The root mean square error as defined in the assignment. """ X = generate_polynomial_features(X, len(X[0])) theta = 0.0 for i in range(len(y)): theta += ((theta, X[i])­y[i])**2 E_rms = (theta / len(y)) return E_rms def generate_polynomial_features(X, M): """ Create a polynomial feature mapping from input examples. Each element x in X is mappe

Meer zien Lees minder
Instelling
Vak

Voorbeeld van de inhoud

"""
EECS 445 ­ Introduction to Maching Learning
HW1 Q6 Linear Regression Optimization Methods)
~~~~~~
Follow the instructions in the homework to complete the
assignment.
"""

import numpy as np
import math
import matplotlib.pyplot as plt
from helper import load_data

def calculate_squared_loss(X, y, theta):
loss = 0.0
for i in range(y.size):
loss = loss + ((y[i]­np.dot(theta, X[i]))**2)/2
loss = loss/y.size
return loss

def calculate_RMS_Error(X, y, theta):
"""
Args:
X: np.array, shape (n, d)
y: np.array, shape (n,)
theta: np.array, shape (d,). Specifies an (d­1)^th degree
polynomial

Returns:
E_rms: float. The root mean square error as defined in the
assignment.
"""
X = generate_polynomial_features(X, len(X[0]))
theta = 0.0
for i in range(len(y)):
theta += (np.dot(theta, X[i])­y[i])**2
E_rms = math.sqrt(theta / len(y))
return E_rms


def generate_polynomial_features(X, M):
"""
Create a polynomial feature mapping from input examples. Each
element x
in X is mapped to an (M+1)­dimensional polynomial feature


This study source was downloaded by 100000850872992 from CourseHero.com on 02-15-2023 06:36:05 GMT -06:00


https://www.coursehero.com/file/36332137/q6-linear-regressionpy/

, vector
i.e. [1, x, x^2, ...,x^M].

Args:
X: np.array, shape (n, 1). Each row is one instance.
M: a non­negative integer

Returns:
Phi: np.array, shape (n, M+1)
"""
Phi = np.zeros((X.shape[0],M+1))
for i in range(len(X)):

for j in range(M+1):
Phi[i][j] = pow(X[i], j)

return Phi


def ls_gradient_descent(X, y, learning_rate=0):
"""
Implements the Gradient Descent (GD) algorithm for least
squares regression.
Note:
­ Please use the stopping criteria: number of iterations
>= 1e6 or |new_loss 10

Args:
X: np.array, shape (n, d)
y: np.array, shape (n,)

Returns:
theta: np.array, shape (d,)
"""
d = X.shape[1]
theta = np.zeros(d+1)
X = generate_polynomial_features(X, 1)
k = 0

new_loss = calculate_squared_loss(X, y, theta)
prev_loss = 0

while k < 1e6 and abs(new_loss­prev_loss) >1e­10:
prev_loss = new_loss
update = np.zeros(X[0].size)


This study source was downloaded by 100000850872992 from CourseHero.com on 02-15-2023 06:36:05 GMT -06:00


https://www.coursehero.com/file/36332137/q6-linear-regressionpy/

Geschreven voor

Vak

Documentinformatie

Geüpload op
15 februari 2023
Aantal pagina's
5
Geschreven in
2022/2023
Type
Tentamen (uitwerkingen)
Bevat
Vragen en antwoorden

Onderwerpen

$8.49
Krijg toegang tot het volledige document:

Verkeerd document? Gratis ruilen Binnen 14 dagen na aankoop en voor het downloaden kun je een ander document kiezen. Je kunt het bedrag gewoon opnieuw besteden.
Geschreven door studenten die geslaagd zijn
Direct beschikbaar na je betaling
Online lezen of als PDF

Maak kennis met de verkoper

Seller avatar
De reputatie van een verkoper is gebaseerd op het aantal documenten dat iemand tegen betaling verkocht heeft en de beoordelingen die voor die items ontvangen zijn. Er zijn drie niveau’s te onderscheiden: brons, zilver en goud. Hoe beter de reputatie, hoe meer de kwaliteit van zijn of haar werk te vertrouwen is.
Themanehoppe American Intercontinental University Online
Volgen Je moet ingelogd zijn om studenten of vakken te kunnen volgen
Verkocht
345
Lid sinds
4 jaar
Aantal volgers
224
Documenten
3784
Laatst verkocht
3 dagen geleden

3.5

55 beoordelingen

5
25
4
7
3
7
2
3
1
13

Recent door jou bekeken

Waarom studenten kiezen voor Stuvia

Gemaakt door medestudenten, geverifieerd door reviews

Kwaliteit die je kunt vertrouwen: geschreven door studenten die slaagden en beoordeeld door anderen die dit document gebruikten.

Niet tevreden? Kies een ander document

Geen zorgen! Je kunt voor hetzelfde geld direct een ander document kiezen dat beter past bij wat je zoekt.

Betaal zoals je wilt, start meteen met leren

Geen abonnement, geen verplichtingen. Betaal zoals je gewend bent via iDeal of creditcard en download je PDF-document meteen.

Student with book image

“Gekocht, gedownload en geslaagd. Zo makkelijk kan het dus zijn.”

Alisha Student

Bezig met je bronvermelding?

Maak nauwkeurige citaten in APA, MLA en Harvard met onze gratis bronnengenerator.

Bezig met je bronvermelding?

Veelgestelde vragen