Summarizing Source Code using a Neural Attention Model

Summarizing Source Code using a Neural Attention Model

Srinivasan Iyer, Ioannis Konstas, Alvin Cheung, Luke Zettlemoyer

UW-Seattle

Introduction

为了给代码自动生成总结。

自然语言生成natural language generation在传统方法中一直用来分开地决定说什么和怎么说。这样的方法在大范围应用中使用效果不太好。我们则相反,提出了端到端的neural network,叫CODE-NN,使用了LSTM和attention机制。

Tasks

CODE-NN用于给定源代码,产生NL summary;还有给出NL summary,还原源代码。

Dataset

数据来自StackOverflow。

The Code-NN Model

使用attention机制,LSTM每次产生一个summary单词,组成了one-hot summary vector。这个向量中的每一个单词都是在给定的一个词库中选择。然后介绍了如何选取参数范围做tuning。

Experiment & Conclusion

对于GEN和RET各自选取了baselines和eval metrics。

Appendix

感觉就是因为前人要么用来非ML的方法,要么就是用了ML的方法,但只用了attention机制。这里就是LSTM-RNN,加上attention机制,来从源代码和summary之间相互转换。

results matching ""

    No results matching ""