本期是问答专栏特别节目
Frions人工队和AI一直较量到了交稿前最后一晚
此时AI已经完成了全部8道题目
让我们看看人工队的表现
哦天呐,还有…五道题正在编辑答案中…
没关系,虽然速度比不过
但质量我们是有信心的
那么最后的胜利会是Frions人工队
还是AI呢?
Q1 食盐的咸味是来自钠离子还是氯离子?假如我汤里下了低钠盐的话,继续加味精,会导致钠离子增多变咸吗?
答:
众所周知,我们在生活中使用的食盐主要成分为氯化钠。我们平常感知到的咸,苦,酸,甜味,是通过味蕾这一味觉感受器所感知的,味蕾上分布有味觉细胞。人体咸味感受的主要通道是上皮细胞膜表面钠通道(ENaC),ENaC具有阳离子选择性,主要被低浓度的钾、钠离子激活。我们进食的过程中,咸味的感知途径为:钠离子通过ENaC传递至舌头表面的味蕾,同时刺激味觉细胞顶端,致使细胞膜发生去极化,产生动作电位,从而释放神经递质并发生传递,之后传至大脑皮层感知咸味。所以咸味是来自于氯化钠中的钠离子。
生活中用到味精的主要成分是谷氨酸的钠盐,又称谷氨酸钠,但味精和食盐一样,由于含有钠元素,摄入过多会导致摄入钠过量,所以汤里加味精会导致钠离子增多而会变咸。因此,每天食用味精应适量,避免影响人体健康。
[1]咸味感知与咸味肽的研究进展
by 扫地僧
Q.E.D.
嗯不错,人工队的答案简洁有力,相信读者们也很容易读懂这份答案。接下来让我们看看AI的表现。
AI:
先用GPT-3.5试一试。
无论是中英文,AI都回答咸味来自氯离子,这是错误的,让我们试试帮AI纠正过来。
额…看来AI并没有听懂。但是没有关系,以上只是节目效果,接下来我们请出GPT-4来看看它真正的实力。
Q.E.D.
不错不错,看来AI还是有资格和我们人工队较个高低的。我们来看看其他读者提问。
Q2 为什么两玻璃片粘水后很难拉开?有的说是因为分子引力,有的说是由于大气压力,哪个说法正确
答:
两片玻璃片之间沾水后很难拉开,其主要原因是组成水和玻璃的微观粒子间的引力。
[1]由于玻璃是离子-共价型化合物,故不用分子一词。
[2]这里我们忽略了水和空气的界面能,这在较小时是合适的。
by 乐在心中
Q.E.D.
AI:
Q.E.D.
AI将答案分成了三个因素,后续我追问了AI,它也给出了水的表面张力是主要因素的回答。
Q3 存在构成莫比乌斯环形状的石墨烯吗?
by 骅骅
答:
存在,而且真正实现合成的报道至今仅过了不到一年。石墨烯是二维材料,不可能卷成莫比乌斯带,因此提问者所指的应该是莫比乌斯环形状的碳纳米带。这种特殊结构的合成属于分子纳米碳科学这一神奇的领域。
环对苯乙烯(1)及其径向取向的p轨道(2)
作为一种典型的环形分子纳米碳结构,环对苯乙烯于上世纪30年代就被提出。然而由于其合成难度之高,直至2008年才被报道由Jasti等人合成。该团队在论文中展示了部分理论计算的结果,发现一定苯环数的环对苯乙烯的最优结构中相邻苯环平面间有一定夹角。
密度泛函理论计算得到的九环结构最优构象
然而,这样的纳米环结构相较于纳米带还有一定距离。
纳米环(右)与纳米带(左)
2017年,Itami团队实现了了纳米带的合成,我们可以从下图直观感受一下合成过程的复杂。
纳米带的合成路线
当然,这还不是扭转后的莫比乌斯带状的结构,只是普通的纳米带。扭转后的结构会自带一定的应力,只有环较大时才更有机会合成。2022年,Itami团队终于实现了莫比乌斯带状的碳纳米带的合成,成果发表在Nature synthesis上。
莫比乌斯碳纳米带
参考资料:
[1] Segawa Y, Watanabe T, Yamanoue K, et al. Synthesis of a Möbius carbon nanobelt[J]. Nature Synthesis, 2022, 1(7): 535-541.
[2] Jasti R, Bhattacharjee J, Neaton J B, et al. Synthesis, characterization, and theory of [9]-,[12]-, and [18] cycloparaphenylene: carbon nanohoop structures[J]. Journal of the American Chemical Society, 2008, 130(52): 17646-17647.
[3] Povie G, Segawa Y, Nishihara T, et al. Synthesis of a carbon nanobelt[J]. Science, 2017, 356(6334): 172-175.
by 云开叶落
Q.E.D.
AI:
Q.E.D.
目前GPT-4的数据库截止2021年9月,它查不到2022年的研究近况也情有可原。在后续追问中,它也承认了这点不足,并推荐我们用Web of Science等学术搜索引擎跟踪最新进展。
但是new bing给出了相当完美的答案:
其中还引用了中科院的报道作为资料来源,可以说相当给力了。
Q4 录像是连续不断记录,将反射到镜头的光线连贯的记录下来;还是一帧一帧(以肉眼几乎不可见的时间间隔)将一个又一个片段拼接起来?(如果是后者的话,是不是看到的视频与发生过的不完全一样?并且只有在卡到每帧节点上才相同,帧与帧之间是根据两帧间的形状差过渡的?
答:
准确地讲,目前最广泛使用的录像技术都采用后者,也就是通过将现实世界逐帧记录,此后通过连续播放各个记录的帧来组成连贯的影像。虽然前者,也就是“连续地记录连续的世界”这一观点很符合我们日常生活的直觉,其对于当今高度数字化的设备来说,却并不是那么地理所当然。可以进行一个简单的算术题:例如,记录1帧需要花费一顿疯狂星期四,记录帧数为N,而总花费为F,则有如下关系式:
取一下连续极限:
则开销线性发散,显然并不怎么经济。而实际上,为了平衡人眼的感受与经济效益,目前电影大多将放映帧数定为24帧,在这样的帧数下,虽然确实观众看到的是一张张连续的时间切片根据视觉暂留原理组成的连续影像,这确实与宏观世界的连续过程不是完全一样的,但其差别也远不足以使人感觉到差异或者怪异。而至于更高的帧数对于人感观的影响,可以参考No.327的Q4中的回答
by Callo
Q.E.D.
AI:
Q.E.D.
AI提到的“视觉暂留”在我们327期问答中也有讲哦。
Q5 如何形象地解释倒格子和倒格空间?
by 匿名
答:
倒空间的每一个点对应着实空间的一种周期性。这种周期性最形象的近似表示就是一族晶面。晶面族的方向垂直于倒空间点对应矢量的方向,晶面的间距反比于倒空间点对应矢量的模长。
由于实空间的格点不是无限稠密的,这意味着我们无需涉及无限密集的晶面族就可以尽数表达实空间的所有周期性。各个方向上所需的最密集的晶面族对应的倒格点组成了包含倒空间原点的倒格子的边界。边界外的格点对应的晶面族已经“过度密集”,以至于其所反映的周期性在第一布里渊区内已经有倒格点可以表达,这种“冗余”这就是倒空间周期性的来源。
by 云开叶落
Q.E.D.
AI:
Q.E.D.
AI答得出乎意料地生动。
Q6 非天体和天体之间可以使用洛希极限研究吗?例如环绕地球轨道上的物体会自己瓦解吗?密度为多少数量级时会自动瓦解
答:
非天体和天体之间,一般是不使用洛希极限进行研究的。因为洛希极限是只考虑重力和潮汐力的简化系统,而对非天体来说其内部的结合力也同样要被考虑。为了更好地说明这个问题,我们再来推导一下洛希极限。当卫星绕行星旋转时,假设在卫星表面摆放的物体只受卫星和行星的重力影响。由于卫星是非惯性参考系,可以将行星的引力用潮汐力来描述。
卫星重力,潮汐力。
这里M、m、μ分别为行星、卫星和物体的质量,r、d分别为卫星的半径和轨道半径。
当F1=F2时,可以得到刚体洛希极限,这里ρM、ρm、R分别为行星密度、卫星密度和行星半径。
我们注意到在上面的推导过程中,我们是假设卫星上的物体和卫星之间只有重力相互作用的。然而在现实中,天体上的物体通常和天体之间是通过物理或者化学作用紧密结合在一起的。就像一块铁,其上的每一个铁原子之间都通过金属键紧密结合。因此,如果要利用潮汐力将铁撕成单个铁原子的话,潮汐力不光要克服重力的影响,还要足够打破铁原子之间的金属键,这对于小尺寸的物体来说是更为困难的。
我们以地球为例,地球半径6371km,地球密度5517kg/m^3,铁的密度7860kg/m^3,可以得到在地球附近铁的洛希极限为11324km,也就是说在地面4953km的范围内所有的铁都进入了洛希极限。然而,地球带来的潮汐力并不能破坏铁原子之间的相互作用力,因此我们生活中还是处处有铁的身影。
总的来说,潮汐力是一种宏观力,在天体尺度上潮汐力的强度足以破坏天体的内部结构。但在小尺度上,潮汐力的强度远不如电磁作用力,因此不会带来太大的影响。
by chen
Q.E.D.
AI:
Q.E.D.
这题AI没答到要点,虽然提到了洛希极限只是从引力出发的推导,但没有给出更进一步的过程。这点人工队不仅给出了,还以铁举例具体说明了材料强度的影响。
Q7 星球能保持的最浓密的大气的气压与它的引力大小有什么关系?
by 匿名
答:
这个问题我想分成两个方面来分析。第一个方面,气压会和引力有直接关系,第二个方面,引力和星球所捕获的大气分子数有关系,从而间接地影响气压。
我们先记星球地表处的重力加速度为g,大气处于温度为T的平衡态。平衡态下气压与气体粒子数密度有关,假设质量为m的气体分子满足玻尔兹曼分布,也就是气体分子数密度n随离地心距离r有下面的变化关系
把它对整个空间积分,会得到这个星球所捕获的大气分子总数
根据分子热动力学,地表处的大气压为
从这里我们已经能看出星球地表的重力加速度g对大气压的影响了,g越大气压也会越大。
另一方面,上式中的大气分子总数N也会受到星球引力大小的影响,引力越大,星球自然就能捕获越多气体分子。气体分子一直在做无规律的热运动,它们的热运动速度也有一个概率分布,可以用麦克斯韦速度分布公式来描述
我们可以把这个速度分布画出来,取地球的大气平均分子质量,地表温度T=300K,可以得到下图。
这说明对于地球大气分子,只有小数点后316位的概率能超过地球引力的逃逸速度逸散出去。我们还可以通过十万帕的大气压反算出地球上大气分子数量为量级,这说明地球大气几乎不可能靠热运动逸散出去,而且这也说明地球完全可以靠引力捕获更多的大气,但考虑到太阳风和地磁场等复杂因素,地球所捕获的大气远没有达到它的引力捕获能力的上限。
当然,这些计算只考虑了平均气体分子质量m,实际上应当分开分析大气中各个成分的气体分子。比如宇宙中广泛分布的氢气,如果考虑它在地球上的速度分布,那么会有10^-21的概率达到逃逸速度,以地球大气分子量的基数来看,这已经是很可观的概率了,所以靠地球的引力并不能牢牢地捕获氢气,而更重更冷的木星则可以捕获氢气。
by 牧羊
Q.E.D.
AI:
Q.E.D.
不错,AI答得比我好系列+1,但论推公式还是推不过人^_^
Q8 可否介绍一下大语言模型和gpt的基本原理?
by 匿名
答:
大语言模型(Large Language Model,LLM)是一类使用无监督学习(Unsupervised Learning)技术在大量数据集上进行训练的模型。我们可以把大语言模型想象成一个“智能语言学家”,它可以学习各种语言的规律和特点,并且可以用这些知识来做很多有趣的事情。
这些模型通常使用深度神经网络来学习自然语言中的词语和短语之间的统计模式和关系,之后就可以针对给定的输入提示或上下文生成连贯且相关的文本。模型的复杂程度和性能可以通过它有多少参数来判断,比如北京人工智能研究院开发的WuDao2.0有1.75万亿个参数,GPT-3有1750亿个参数。
大语言模型的典型代表包括OpenAI的GPT系列模型、谷歌的BERT模型、Google开发的XLNet和T5等等。此技术通常采用预训练(pre-training)与微调(fine-tuning)两个阶段的方法。
大型语言模型首先经过预训练,对于预训练来说,目前的主流大都采用Transformer作为特征提取器。这个过程就像做填空题一样,计算机会看到一句话中缺少一个单词,然后根据上下文来猜测应该填什么单词。如果猜对了,就会得到奖励,如果猜错了,就会得到惩罚。这样,计算机就可以逐渐学会语言知识和语言规律,形成对语言知识的抽象表示。
一旦模型经过预训练,就可以继续训练进行微调。这个过程就像写作文一样,计算机需要根据任务要求生成符合要求的文本输出。这个过程中,我们需要给计算机提供一些相关的数据,让它能够了解任务的背景和要求,然后就可以开始创作啦。简而言之就是在已经预训练好的模型基础上,使用有标注的数据集对其进行进一步的训练和优化,以适应特定的任务和应用场景。
据OpenAI自己介绍,Chatgpt其实是InstructGPT的同级模型,使用的也是与InstructGPT相同的方法(Reinforcement Learning from Human Feedback,RLHF)来训练,RLHF意思就是用人类的反馈做微调,具体来收就是先收集很多的问题(prompt),然后让人类去回答这些问题,之后在此数据集上面进行微调,好处就是这样能得到更符合人类偏好的答案。
对于GPT(Generative Pre-trained Transformer)而言,从名字就可以看出它是一个生成式的预训练模型,属于自回归语言模型(Autoregressive Language Model),ALM根据上文(或者下文)内容预测下一个(前面的)可能的单词,就是常说的自左向右的语言模型任务)。
具体来说,GPT也是一种基于Transformer模型的大语言模型,而Transformer则是谷歌于2017年首先提出的seq2seq 模型,它是一种基于自注意力机制(Self-Attention)的神经网络。Transformer通过跟踪顺序数据中的关系(如一句话中的词语)来学习上下文和含义,由Encoder和Decoder两部分组成,如下图所示。
最后,大语言模型并不是十全十美的,它也有一些不可避免的局限性。比如:其所了解的内容可靠性有限且可能包含歧视偏见性内容;输入输出内容有长度限制;开发成本都非常高;需要多台GPU运算耗费大量电力对环境有所影响,等等。
参考资料:
[1]Bommasani R, Hudson D A, Adeli E, et al. On the opportunities and risks of foundation models[J]. arXiv preprint arXiv:2108.07258, 2021.
[2]NLP三大特征提取器全梳理:RNN vs CNN vs Transformer.
[3]通向AGI之路:大型语言模型(LLM)技术精要.
[4]Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. Advances in Neural Information Processing Systems, 2022, 35: 27730-27744.
[5]GPT-4 Technical Report.
[6]Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention is All you Need. Neural Information Processing Systems, 30, 5998–6008.
by 十七
Q.E.D.
AI:
Q.E.D.
不知道读者们感觉怎样?我觉得有些题目AI表现得出乎意料地好,比如Q5用棋盘和水波的比方解释正格子和倒格子就很生动,Q8的自我介绍也指明了会针对问答任务做fine-tuning。但目前AI还不能根据问题提供图片和公式演算,所以我们Frions人工队依然是不可取代的。当然,我相信有了AI的帮助,我们问答专栏能提供更优质的回答。欢迎大家留言说说自己的看法。
注:AI的回答并不保证准确,请大家注意甄别。