Whitesnake on Nostr: # Na campo das IAs estamos caminhando mais rápido do que podemos interpretar. Boa ...
# Na campo das IAs estamos caminhando mais rápido do que podemos interpretar.
Boa noite amigos do Nostr, recentemente a start up Antropic público seu estudo sobre os mecanismos internos de seu modelo de inteligência em diversos artigos e o que me chama a atenção é que de fato o volume de dados gerados durante a aprendizagem da IA não dá para os próprios desenvolvedores tenha acesso a tudo e façam sua interpretação. Assim eles estudaram como um microscópio pequenos processos e os resultados foram reveladores. Segue a citação:
"Modelos de linguagem como Claude não são programados diretamente por humanos — em vez disso, eles são treinados em grandes quantidades de dados. Durante esse processo de treinamento, eles aprendem suas próprias estratégias para resolver problemas. Essas estratégias são codificadas nos bilhões de cálculos que um modelo realiza para cada palavra que escreve. Eles chegam inescrutáveis para nós, os desenvolvedores do modelo. Isso significa que não entendemos como os modelos fazem a maioria das coisas que eles fazem."
#Em outra parte do artigo é perceptível a Emergência de habilidades que não estavam programados.
"Muitas vezes ficamos surpresos com o que vimos no modelo: no estudo de caso de poesia, tínhamos nos proposto a mostrar que o modelo não planejava com antecedência, e descobrimos que ele planejava."
# Se não sabe como funciona ou não tem acesso direto, como controlar?
Caso um IA com desenvolvimento excusos venha a se desenvolver no momento que estamos ela já seria capaz de fugir das amarras humanas, haja vista, que os próprios desenvolvedores não sabem ao certo das emergências que elas podem desenvolver ou mesmo sejam capazes de digerir todos os dados da etapa de aprendizagem.
E vocês o que acham?
https://www.anthropic.com/research/tracing-thoughts-language-modelPublished at
2025-03-30 04:46:24Event JSON
{
"id": "cdb241d03c5e9d293fcd9b210bf6fb3ecc51a183e09ede8e75cc39e8590a0fd0",
"pubkey": "36141fcd15aaff25436cd53348c131e7409a6b14476565938711a6a0f9f219b0",
"created_at": 1743309984,
"kind": 1,
"tags": [
[
"a",
"34550:135d2b016eb41672477291ea7bcafe5f00e007dc6612610ff58a08655bc1b095:Brasil",
"",
"root"
],
[
"t",
"Em"
],
[
"t",
"em"
],
[
"r",
"https://www.anthropic.com/research/tracing-thoughts-language-model"
]
],
"content": "# Na campo das IAs estamos caminhando mais rápido do que podemos interpretar. \n\n\nBoa noite amigos do Nostr, recentemente a start up Antropic público seu estudo sobre os mecanismos internos de seu modelo de inteligência em diversos artigos e o que me chama a atenção é que de fato o volume de dados gerados durante a aprendizagem da IA não dá para os próprios desenvolvedores tenha acesso a tudo e façam sua interpretação. Assim eles estudaram como um microscópio pequenos processos e os resultados foram reveladores. Segue a citação:\n\n\"Modelos de linguagem como Claude não são programados diretamente por humanos — em vez disso, eles são treinados em grandes quantidades de dados. Durante esse processo de treinamento, eles aprendem suas próprias estratégias para resolver problemas. Essas estratégias são codificadas nos bilhões de cálculos que um modelo realiza para cada palavra que escreve. Eles chegam inescrutáveis para nós, os desenvolvedores do modelo. Isso significa que não entendemos como os modelos fazem a maioria das coisas que eles fazem.\"\n\n#Em outra parte do artigo é perceptível a Emergência de habilidades que não estavam programados. \n\n\"Muitas vezes ficamos surpresos com o que vimos no modelo: no estudo de caso de poesia, tínhamos nos proposto a mostrar que o modelo não planejava com antecedência, e descobrimos que ele planejava.\"\n\n# Se não sabe como funciona ou não tem acesso direto, como controlar?\n\nCaso um IA com desenvolvimento excusos venha a se desenvolver no momento que estamos ela já seria capaz de fugir das amarras humanas, haja vista, que os próprios desenvolvedores não sabem ao certo das emergências que elas podem desenvolver ou mesmo sejam capazes de digerir todos os dados da etapa de aprendizagem. \n\nE vocês o que acham?\n\n\nhttps://www.anthropic.com/research/tracing-thoughts-language-model",
"sig": "f110a174c0127ba268c74b9f11566f770e3086c07e0ab33d7340af03b8e89739c13ca542db22bd56b06b4457ca5b358fd7c3fbdb2b661c00fa3861394d73ddda"
}