【原】Coursera—Andrew Ng机器学习—Week 3 习题—Logistic Regression 逻辑回归

课上习题

【1】线性回归

Answer: D

A 特征缩放不起作用,B for all 不对,C zero error不对

 【2】概率

Answer:A

【3】预测图形

Answer:A

5 - x1 ≥ 0时,y = 1。即x1 ≤ 5时,y = 1

 【4】凸函数

   

【5】代价函数

Answer:ABD

任何情况下都是 预测对时 cost为0,反之为正无穷

 【6】代价函数

 【7】向量化

 

Answer:A

【8】高级优化算法

 

 Answer:C

【9】多分类

 


测验

 AB

 

  Answer:BE

当有一个feature时是一条直线,当有两个feature时一条曲线,有更多的feature时是一条弯七弯八的曲线 。当feature越来越多时,曲线越来越拟合,即损失函数越来越小

A 逻辑回归没有局部最优

B 当增加feature时,拟合的更好. 正确

C 拟合不好但还是会收敛

D 线性回归

E 直线不会完全拟合这几个数据。找到最佳的θ,但是J(θ)会大于0。 正确

F 和B相反,错误

G 0< hθ(x(i)) <1 不可能大于1。 错误

       

 Answer: BCE

AD是线性回归

F少了一个下标 j

 

 Answer:AB

C 线性回归用于分类不好使

D 逻辑回归是凸函数 没有局部最优解的情况。

 Answer:D


【1】regularization

 Answer:C

【2】

【3】

Answer:A

A :新加的feature会提高 train set的拟合度

B :more features能够更好的 fit 训练集,同时也容易导致overfit,是more likely而不是 prevent. 不正确

C,D:将正则化方法加入模型并不是每次都能取得好的效果,如果取得太大的化就会导致欠拟合. 这样不论对 traing set 还是 examples都不好. 不正确  

Answer:B

逻辑回归中,由于λ的加入 参数Θ会变小

Answer:C

 

Answer: A

 

Answer:A

原文地址:https://www.cnblogs.com/maxiaodoubao/p/9879284.html