字型的深度學習里程碑
《字型的深度學習》專案,目前設定下列重要目標跟里程碑:
- 先學會基本tensorflow操作
- 跑zi2zi project範例
- 以自訂內容完成zi2zi project: training
- 以自訂內容完成zi2zi project: inference
- 將inference output image進行向量化
- 將向量化之後的文字集成字型檔
目前設定的終極目標是要能夠利用各種程式透過deep learning的方式來生成字數要有一定程度以上的中文字集字型檔案。
附加價值
執行《字型的深度學習》,可能順便或者說必須習得一些技能:
- 基本tensorflow操作
- Google Cloud Platform操作
- 理解人工智慧應用當中的style-transfer的基本原理
- 如何利用程式將簡單的圖形內容進行向量化
- 如何利用向量化的檔案來集結成字型檔
- 生成字型檔的基本步驟
Lyudmil Vladimirov
這篇教學目前停擺,暫時沒空自己蒐集圖片&貼標籤,之後有搜尋到別人的dataset再繼續跟進。
zi2zi Experiments
2018/11/11
按照zi2zi git hub上面的說明,我是選新細明體當作src_font,而dst_font則是選用康熙字典體。目前做font2img跟package需要針對python2/3做微幅修改,已順利完工。不過training部分還沒把.py從python2升級到python3。
2018/11/12
使用tensorflow_gpu virtual environment跑的training, 目前似乎會遭遇GPU報resource不足的問題。未解,stdout message如下:
tensorflow.python.framework.errors_impl.ResourceExhaustedError:
OOM when allocating tensor with shape[5,5,512,1024] and type float on
/job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
...
Hint: If you want to see a list of allocated tensors
when OOM happens, add report_tensor_allocations_upon_oom
to RunOptions for current allocation info.
2018/12/04
研究了一下發現應該是zi2zi本身建立的model需要大量GPU memory, 根據作者在github上面的回覆, 大概要6GB, 而我PC上面的GTX-960只有2GB. 可能先直接試用pre-trained model來實驗後續動作. zi2zi training大概只能往免費或者費用稍微能接受的其他運算平台, ( https://towardsdatascience.com/maximize-your-gpu-dollars-a9133f4e546a)
沒有留言:
張貼留言