Event JSON
{
"id": "1c0a0258f54e8f98322a912ff131f6184a616335f2ce9e4dbd9a216fc3904b6b",
"pubkey": "1d847d3a4cc922c4348a0f794e7c226ecc4102a839825c362be6ac0d8820c043",
"created_at": 1742049447,
"kind": 1,
"tags": [
[
"a",
"34550:135d2b016eb41672477291ea7bcafe5f00e007dc6612610ff58a08655bc1b095:Brasil",
"",
"root"
],
[
"r",
"https://image.nostr.build/2ff3c14efac67930ef5c0af00bae9f5ca0fff8a1841b2888b945c53a409c2d04.jpg"
],
[
"imeta",
"url https://image.nostr.build/2ff3c14efac67930ef5c0af00bae9f5ca0fff8a1841b2888b945c53a409c2d04.jpg",
"x 5a213fff20099a87d65c410dcc224154664c4e75940c7a0ee4ab66dc85b67604",
"size 27595",
"m image/jpeg",
"dim 776x395",
"blurhash iIR{#?xu~qxuj[t7WBxuM{?bayfQofIUj[xuj[ay_3j[D%ayRjj[t7j[t7ofofj[WB%MayM{j[j[t7WBRjofxufQRjWBWB",
"ox 5a213fff20099a87d65c410dcc224154664c4e75940c7a0ee4ab66dc85b67604",
"alt "
]
],
"content": "https://image.nostr.build/2ff3c14efac67930ef5c0af00bae9f5ca0fff8a1841b2888b945c53a409c2d04.jpg Ollama é uma plataforma projetada para executar modelos de linguagem avançados de forma local. Ela facilita a instalação e o gerenciamento de modelos como Llama 3.3, DeepSeek-R1, Phi-4, Mistral e Gemma 3 em diferentes sistemas operacionais, como macOS, Linux e Windows, permitindo que desenvolvedores e entusiastas de inteligência artificial experimentem e implementem essas tecnologias sem depender exclusivamente de serviços na nuvem. O funcionamento do Ollama envolve a centralização dos processos de download, configuração e execução dos modelos, o que oferece maior controle, segurança e privacidade aos usuários, além de promover uma integração mais simplificada com outras aplicações. Quanto à questão do open-source, embora alguns componentes e recursos possam estar disponíveis em repositórios públicos (como no GitHub), a plataforma principal não é inteiramente open-source, sendo mantida como um produto proprietário pela Ollama Inc.",
"sig": "0a657dcace123f54c707a7c28d14b897bea03314420878cfa1478a3a9af79b5315ae819944a5f8fe1fc9312eac53599c8b228b74821f62aa7c28403be220fe24"
}