Why Nostr? What is Njump?
2024-09-14 19:17:36

GPTDAOCN-e/acc on Nostr: ...

Andrej的观点主要在于当前我们称之为“大语言模型”(LLM)的技术,其实并不仅限于处理语言。这种命名只是历史原因。实际上,这些模型是用于统计建模的通用技术,可以处理各种形式的数据流,包括文本、图像、音频、行动选择甚至分子结构等。

换句话说,只要你能将你的问题转换为“建模一系列离散符号流”的问题,就可以使用LLM来解决。未来,随着LLM技术的成熟,可能会有越来越多的问题被简化为“下一个符号预测”的问题,具体领域内使用和理解的符号会有所不同。

此外,现有的深度学习框架(如PyTorch)可能过于通用,因为大多数问题最终可能只需要使用LLM来解决,而无需数千种操作和层次配置。

例子:

假设你是一位制药公司研究员,你想发现新的药物分子组合。传统上,这需要复杂的化学分析和实验,但如果你能将分子结构表示为一系列离散符号(类似于文本中的单词),那么你就可以使用LLM来预测下一组可能有效的分子结构。

举个更具体的例子,你可以把每个分子的原子和键转换成一个离散符号序列,然后训练一个LLM来预测下一个原子或键的位置。通过这种方法,LLM不仅可以生成新的分子结构,还可以根据历史数据预测哪些结构可能具有特定的药理作用。这大大简化了药物发现过程,同时提高了效率和准确性。

这种方法不仅适用于制药行业,还可以应用于图像处理(例如,将图像切割成小块进行处理)、音频识别(将音频切割成小段进行分析)等各个领域。这正是Andrej所说的,“只要能将问题转换为建模符号流的问题,就能用LLM来解决”。
Author Public Key
npub1atst8p6wc9xz0aezu7csvqxyrevrnckc2ckpt4q5gsgpthq0n0ese50ns2