GPTDAOCN-e/acc on Nostr: ...
Andrej的观点主要在于当前我们称之为“大语言模型”(LLM)的技术,其实并不仅限于处理语言。这种命名只是历史原因。实际上,这些模型是用于统计建模的通用技术,可以处理各种形式的数据流,包括文本、图像、音频、行动选择甚至分子结构等。
换句话说,只要你能将你的问题转换为“建模一系列离散符号流”的问题,就可以使用LLM来解决。未来,随着LLM技术的成熟,可能会有越来越多的问题被简化为“下一个符号预测”的问题,具体领域内使用和理解的符号会有所不同。
此外,现有的深度学习框架(如PyTorch)可能过于通用,因为大多数问题最终可能只需要使用LLM来解决,而无需数千种操作和层次配置。
例子:
假设你是一位制药公司研究员,你想发现新的药物分子组合。传统上,这需要复杂的化学分析和实验,但如果你能将分子结构表示为一系列离散符号(类似于文本中的单词),那么你就可以使用LLM来预测下一组可能有效的分子结构。
举个更具体的例子,你可以把每个分子的原子和键转换成一个离散符号序列,然后训练一个LLM来预测下一个原子或键的位置。通过这种方法,LLM不仅可以生成新的分子结构,还可以根据历史数据预测哪些结构可能具有特定的药理作用。这大大简化了药物发现过程,同时提高了效率和准确性。
这种方法不仅适用于制药行业,还可以应用于图像处理(例如,将图像切割成小块进行处理)、音频识别(将音频切割成小段进行分析)等各个领域。这正是Andrej所说的,“只要能将问题转换为建模符号流的问题,就能用LLM来解决”。
Published at
2024-09-14 19:17:36Event JSON
{
"id": "a5da687a8d537ba1f71f7aa9052b737ee0bb5f179fcb1bd6a354919d81e823bd",
"pubkey": "eae0b3874ec14c27f722e7b10600c41e5839e2d8562c15d414441015dc0f9bf3",
"created_at": 1726341456,
"kind": 1,
"tags": [],
"content": "Andrej的观点主要在于当前我们称之为“大语言模型”(LLM)的技术,其实并不仅限于处理语言。这种命名只是历史原因。实际上,这些模型是用于统计建模的通用技术,可以处理各种形式的数据流,包括文本、图像、音频、行动选择甚至分子结构等。\n\n换句话说,只要你能将你的问题转换为“建模一系列离散符号流”的问题,就可以使用LLM来解决。未来,随着LLM技术的成熟,可能会有越来越多的问题被简化为“下一个符号预测”的问题,具体领域内使用和理解的符号会有所不同。\n\n此外,现有的深度学习框架(如PyTorch)可能过于通用,因为大多数问题最终可能只需要使用LLM来解决,而无需数千种操作和层次配置。\n\n 例子:\n\n假设你是一位制药公司研究员,你想发现新的药物分子组合。传统上,这需要复杂的化学分析和实验,但如果你能将分子结构表示为一系列离散符号(类似于文本中的单词),那么你就可以使用LLM来预测下一组可能有效的分子结构。\n\n举个更具体的例子,你可以把每个分子的原子和键转换成一个离散符号序列,然后训练一个LLM来预测下一个原子或键的位置。通过这种方法,LLM不仅可以生成新的分子结构,还可以根据历史数据预测哪些结构可能具有特定的药理作用。这大大简化了药物发现过程,同时提高了效率和准确性。\n\n这种方法不仅适用于制药行业,还可以应用于图像处理(例如,将图像切割成小块进行处理)、音频识别(将音频切割成小段进行分析)等各个领域。这正是Andrej所说的,“只要能将问题转换为建模符号流的问题,就能用LLM来解决”。",
"sig": "42ebcc3a93a039f56bfa0c5c25411d8b01fa6536f10d708a8716e963e2d310ce130b4c240e3433d5a64cd43bafaf9ea32670794dba8c7afcc47e0f783b33e053"
}