我失业了?| ChatGPT生信分析初体验

最近ChatGPT火的一塌糊涂,作为在生物医学和计算机科学领域夹缝求生的边缘摇摆人,也来蹭一波热度。

ChatGPT是一个预训练的语言模型,由OpenAI训练。它可以用来生成自然语言文本,并且可以进行对话。它基于Transformer架构,可以捕捉到语言之间的复杂关系。它可以用来开发聊天机器人、语音助手、评论生成系统等。

下面我就从我比较擅长的组学生信、数据可视化以及机器学习三个方面测试一下。

生信分析

问一下RNAseq分析流程

流程很对就是没有代码,看看能不能给我们写个代码~

完了,感觉要失业了。用了好多python脚本,看一下有没有代码。

虽然没有代码,但是他给出了一个python进行RPKM 标准化的例子。好牛~

再问一下每个软件怎么用?

好详细,问一下质控报告怎么解读?

很详细啊~当然这些东西谷歌也可以搜索的到的。可以看到,ChatGPT对于自动生成一个拿来就用的上游分析代码方面,还是略有不足。不过有了大纲修修补补还是够用的,

数据可视化

来画个图吧!

把要求写细一点。

可以看到,除了有代码还有每个参数的用法。

问一下上一篇推文的图怎么画?

用到的函数都给到了~实在是很厉害。

看来,看到不会画的图先问问ChatGPT说不定就有思路了。

机器学习

机器学习应该是ChatGPT的主场了。

问一下用R语言进行随机森林分类的代码。

怎么调参呢?

总结

测试完我只想说:ChatGPT,还有什么是你不会的!总的来说,ChatGPT可以充当一个解决问题过程中AI助手的角色。当然,作为一个全新推出的模型,ChatGPT自然有很多bug等待修复。OpenAI也在官网列出了一些现有的局限。

ChatGPT有时会给出听起来很有道理,但实则离谱的答案。这个问题很难解决,因为:训练期间,没有事实来源进行强化学习;过于专注准确性会导致训练模型更加谨慎,有可能拒绝本可以正确回答的问题;监督训练会误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。ChatGPT对调整输入措辞或多次尝试相同的提示很敏感。例如,给定一个问题的措辞,模型可以声称不知道答案,但稍微改写一下,就可以正确回答。该模型通常过于冗长,并且过度使用某些短语,例如重申它是由OpenAI训练的语言模型。理想情况下,当用户问题不明确时,模型会要求用户进一步解释。然而目前的模型通常会猜测用户的意图。

往期内容

CNS图表复现|生信分析|R绘图 资源分享&讨论群!这图怎么画| 有点复杂的散点图这图怎么画 | 相关分析棒棒糖图组学生信| Front Immunol |基于血清蛋白质组早期诊断标志筛选的简单套路(免费教程+代码领取)|跟着Cell学作图系列合集Q&A | 如何在论文中画出漂亮的插图?跟着 Cell 学作图 | 桑葚图(ggalluvial)R实战 | Lasso回归模型建立及变量筛选跟着 NC 学作图 | 互作网络图进阶(蛋白+富集通路)(Cytoscape)R实战 | 给聚类加个圈圈(ggunchull)R实战 | NGS数据时间序列分析(maSigPro)跟着 Cell 学作图 | 韦恩图(ggVennDiagram)

木舟笔记矩阵

本文使用 文章同步助手 同步

Leave a Reply