当前位置 博文首页 > 文章内容

    pytorch学习笔记(3)

    作者: 栏目:未分类 时间:2020-07-03 9:24:50

    本站于2023年9月4日。收到“大连君*****咨询有限公司”通知
    说我们IIS7站长博客,有一篇博文用了他们的图片。
    要求我们给他们一张图片6000元。要不然法院告我们

    为避免不必要的麻烦,IIS7站长博客,全站内容图片下架、并积极应诉
    博文内容全部不再显示,请需要相关资讯的站长朋友到必应搜索。谢谢!

    另祝:版权碰瓷诈骗团伙,早日弃暗投明。

    相关新闻:借版权之名、行诈骗之实,周某因犯诈骗罪被判处有期徒刑十一年六个月

    叹!百花齐放的时代,渐行渐远!



    #FizzBuzz
    def fizz_buzz_encode(i):
        if i%15==0:return 3
        elif i%5==0:return 2
        elif i%3==0:return 1
        else:return 0
    def fizz_buzz_decode(i,prediction):
        return [str(i), 'fizz', 'buzz', 'fizzbuzz'][prediction]
    def helper(i):
        print(fizz_buzz_decode(i,fizz_buzz_encode(i)))
    for i in range(1,16):
        helper(i)
    
    import numpy as np
    import torch
    NUM_DIGITS=10
    def fizz_buzz_encode(i):
        if i%15==0:return 3
        elif i%5==0:return 2
        elif i%3==0:return 1
        else:return 0
    #输入用二进制表示
    def binary_encode(i,num_digits):
        return np.array([i>>d & 1 for d in range(num_digits)][::-1])
    trX=torch.Tensor([binary_encode(i,NUM_DIGITS) for i in range(101,2**NUM_DIGITS)])
    trY=torch.LongTensor([fizz_buzz_encode(i) for i in range (101,2**NUM_DIGITS)])
    binary_encode(15,NUM_DIGITS)
    
    NUM_HIDDEN=100
    model=torch.nn.Sequential(torch.nn.Linear(NUM_DIGITS,NUM_HIDDEN),torch.nn.ReLU(),torch.nn.Linear(NUM_HIDDEN,4))
    if torch.cuda.is_available():
        model=model.cuda()
    
    loss_fn = torch.nn.CrossEntropyLoss()
    optimizer = torch.optim.SGD(model.parameters(),lr=0.05)
    BATCH_SIZE=128
    for epoch in range(1000):
        for start in range(0,len(trX),BATCH_SIZE):
            end=start+BATCH_SIZE
            batchX=trX[start:end]
            batchY=trY[start:end]
            if torch.cuda.is_available():
                batchX=batchX.cuda()
                batchY=batchY.cuda()
            y_pred=model(batchX)
            loss=loss_fn(y_pred,batchY)
            print('Epoch',epoch,loss.item())
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
            
    
    #测试
    testX=torch.Tensor([binary_encode(i,NUM_DIGITS)  for i in range(1,101)])
    if torch.cuda.is_available():
        testX=textX.cuda()
    with torch.no_grad():
        testY=model(testX)
    predicts=zip(range(1,101),testY.max(1)[1].cpu().data.tolist())
    print([fizz_buzz_decode(i,x) for i,x in predicts])