李沫深度学习

与工业界相比:更大的数据规模和模型复杂度的区别

mxnet 爱慕斯奈特

y = nd.array(x)  # numpy -> mxnet
z = y.asnumpy()  # mxnet -> numpy

 把结果通过[:]写到一个开好的数组里:

z = nd.zeros_like(x)
before = id(z)
z[:] = x + y      #  x+y的结果写回z  id相同 但还是为x+y创建了临时空间   
id(z) == before
nd.elemwise_add(x,y,out=z)    #最省内存

 map使用

>>>def square(x) :            # 计算平方数
...     return x ** 2
... 
>>> map(square, [1,2,3,4,5])   # 计算列表各个元素的平方
[1, 4, 9, 16, 25]
>>> map(lambda x: x ** 2, [1, 2, 3, 4, 5])  # 使用 lambda 匿名函数
[1, 4, 9, 16, 25]
 
# 提供了两个列表,对相同位置的列表数据进行相加
>>> map(lambda x, y: x + y, [1, 3, 5, 7, 9], [2, 4, 6, 8, 10])
[3, 7, 11, 15, 19]

 

 生成器:一边循环一边计算的机制

generator_ex = (x*x for x in range(10))
for i in generator_ex:
    print(i)

             

 

斐波那契数列:

#fibonacci数列
def fib(max):
    n,a,b =0,0,1
    while n < max:
        a,b =b,a+b
        n = n+1
        print(a)
    return 'done'
 
a = fib(10)
print(fib(10))

 

 

def fib(max):
    n,a,b =0,0,1
    while n < max:
        yield b
        a,b =b,a+b
        = n+1
    return 'done'
 
= fib(10)
print(fib(10))
print(a.__next__())
print(a.__next__())
print(a.__next__())
print("可以顺便干其他事情")
print(a.__next__())
print(a.__next__())

 Flatten层:将输入数据转化成batch_size x ? 的矩阵

 

 

weight_decay:

w=w-lr*grad-wd*w

 

 

 

 

 

 

 

 

 

 

原文地址:https://www.cnblogs.com/zhang1422749310/p/11827208.html