Event JSON
{
"id": "2f14d6730e3e03af3fcf3b051cfd26b6e6f6fa14ade5ae487656b2ea239a704b",
"pubkey": "21fbf3e8b147c32537913824d06544a59de2957de060daaa042d2d73e9e0f4c5",
"created_at": 1739453287,
"kind": 1,
"tags": [
[
"p",
"98be7a9167f1ec6901ae1314cf6f54a306ed5a05cf98bd375290755f9159d86e",
"wss://relay.mostr.pub"
],
[
"p",
"5d2232200c07c76ad32fe31b9c0d03674c634fd1b8f5986a4597d372a1ca07d3",
"wss://relay.mostr.pub"
],
[
"e",
"3131b3006eebc3254b38a8a46a8a49329e4c55cbd33230b8260c172c1d6240e2",
"wss://relay.mostr.pub",
"reply"
],
[
"proxy",
"https://shelter.moe/users/mayuraviva/statuses/113996810643341244",
"activitypub"
]
],
"content": "nostr:nprofile1qy2hwumn8ghj7un9d3shjtnddaehgu3wwp6kyqpqnzl84yt878kxjqdwzv2v7m655vrw6ks9e7vt6d6jjp64ly2emphqamy2tq Personnellement je pense que c'est du côté de la communauté open source qu'il faut regarder. La communauté a beaucoup œuvré pour réduire le coût de l'inférence notamment avec le projet llama.cpp. Projet qui permet de compresser les modèles et de les faire tourner sur le CPU au lieu du GPU.",
"sig": "69080f48be8598ce1803c8374886a4d882311a38acf02d0c075ba44be8a2b4b9f349c676ae2b1732b42cb4528028bf6aa95ef09f88d1b1f7f2a56b45717ccf7c"
}