1)写文档(包括论文),我的习惯是第一版先把自己的想法堆上去,毕竟第一版就想把语句写的很精炼、准确是一件难事。 2)修改初稿,建议从:整篇文章的框架布局 -> 段落相互服务关系(参考introduction的故事思路) -> 语句上下文服务关系(本文),这样的顺序去修改 3)不管写英语句子还是中文句子,写好每一句话都不容易,需要作者字斟句酌、反复推敲。不要觉得别人就一步到位了,谁都不易。 4)为了不让自己写的句子比较饶,尽量不要在一句话中,表达太多意思。学会拆分长句需要下功夫。 5)从整段甚至整篇文章的角度看,写好当前语句的另一个重要前提是瞻前顾后。
以近期修改的韬同学ASMI算法、第17版、introduction部分的前四段修改为例。
1. After all, the main idea of instance-based paradigm is directly assigning bag labels to their internal instances, which will cause certain impact on bag classification performance.
这句话的几个问题: 1)语病: is directly assigning是正在进行时->is to directly assign… after all 我认为是比较口语化的词,不适合写在论文里。 2)句子绕——如果能不用从句解决的,尽量避免。 3)和本段后面两个句子的意思有重复,它们都在说影响分类结果; a)这句话的意思:基于实例的范式是把包的标签分配给实例,会影响包分类; b)下面两句 since a positive bag… Using negative instance… :由于正包很有可能包括正、负实例.用负实例训练分类模型不能得到预期的分类性能 体会一下,b)和a)是否在说同一个意思。 4)这句话前后的语义逻辑不连贯。 再体会:本段前三句话: a) With the powerful feature extraction… b)Zhu et al. (2017)文献… c)Felipe and Claudio(2020)文献… 这里在说引入神经网络后,现有工作简介。 那么,在现有工作简介和说不足之间,应该有一句话承上启下。
综上原因,本句修改意见 a) Yang: Specially, the common strategy is to assign the bag label to its instances. b) Min: A common strategy of the instance-based paradigm is to assign the bag label to its instances. 本句话的作用:对于前三句话,说明现有研究工作的共同特点;方便后面的语句表述这一共同点的不足等,总之为自己的工作转折服务。 Yang VS Min : a) 用A替代the,在这里更能代表现有工作中的一个共同点,用the更有把比人工作限定到都只是这样做的——体会一下。 b)加上the instance-based paradigm就和本段的前一段描述承接起来(再品一下introduction的故事思路一文)
2. Since a positive bag has high possibility to contain both positive and negative instances. Using negative instances (with assigned positive labels) to train classification model may result in undesirable performance.
上一句话修改后的语句是: A common strategy of the instance-based paradigm is to assign the bag label to its instances. 因此,本句话应转而说这些策略存在的问题,对应摘要里however前后的关系。 修改意见: a)Yang: however, a positive bag has high possibility of containing both positive and negative instances. Using negative instances which are assigned positive labels to train classification model may result in undesirable performance. b)Min: However, a positive bag often contains some negative instances. They will reduce the performance of the classification model. Min的点评是这样更紧凑,但句子确实短了些。 我想:introduction的故事,尽量说明白一点,让读者读起来更轻松一些可能更好。 这里大家取舍或尝试写写两者兼得的句子。
3. Ilse, Tomczak, and Welling (2018) try to obtain adequate feature extraction ability by using a specially designed attention layer with two fully connected layers. 见图3的①: 1)写成这样可以接受 2)Mr Min高阶修改方案:这里不一定要遵从原文,使用 adequate 之类的单词,抓住主要意思就是。当然,这是高阶方案。 -> Ilse, Tomczak, and Welling (2018) designed an attention layer with two fully connected layers to enhance feature extraction. tips: Min也是在反复斟酌,倒腾google翻译改成的。说明高阶句子,也不是自己写不出来,因为别人也是费劲才写出来的。 3)Yang修改的: Ilse, Tomczak, and Welling (2018) try to obtain adequate feature extraction ability by specially designed attention layer with two fully connected layers. 我去掉了 using,理由: 韬原句意思:文献通过使用特殊设计的注意力层获得足够的特征提取能力; vs 去掉后的意思:文献通过特殊设计的注意力层获得足够的特征提取能力; Min认为意思就不对了,但我感觉是一样的,这个请教大家。
4. The general method of these algorithms is designing a specialized attention layer to dynamically allocate weights to instances in one bag ,and aggregate them into a fused vector for classification.
见图3的②: 这句话的问题: 1)长句,把设置注意力网络、分配权重、聚合、融合向量弄到了一堆; 2)重复: a) ②的前两句:Pappas and Popescu-Belis(2017):把注意力机制嵌入神经网络学习实例权重; Ilse等使用具有两个全连接层的注意力网络提取特征。已经说明:引入注意力层去干什么。 b)本句话再说:The general method of these algorithms is designing a specialized attention layer… 一是读起来啰嗦;二是句子长; 正好是缩短句子的办法,因此修改为: -> Their general method is to learn attention weights to the instances in the bag and aggregate them into a fused vector for classification.
5. The attention mechani effectively avoids the shortcoming of instance-level network, due to the possible wrong instance labels are not exploited.
见图3的③ 这句话看了很多遍才大概懂了说明意思。 毛病在于: The attention mechani effectively avoids the shortcoming of instance-level network——注意力机制有效避免了基于实例网络的缺点 & due to the possible wrong instance labels are not exploited.——由于实例标签可能分配错误 这两者之间我认为不是因果关系。 本老师倒腾了半天,也是好不容易改成如下: -> The attention mechani effectively avoids the shortcoming of instance-level network caused by incorrectly assigned instance labels.
本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕,E-mail:xinmeigg88@163.com
本文链接:http://www.dbeile.cn/news/2206.html