Stéphane Bortzmeyer on Nostr: Ce qui est dingue, dans ce jugement canadien, est qu'une entreprise a tenté de ...
Ce qui est dingue, dans ce jugement canadien, est qu'une entreprise a tenté de prétendre que les informations données par son chatbot n'étaient pas contractuelles. Heureusement, le juge n'a pas suivi
https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.htmlMais cela ouvre plein de possibilités. Les chatbots étant désormais souvent basés sur un LLM qui hallucine, ils diront souvent n'importe quoi, et, si on a pensé, comme le plaignant, à faire une copie d'écran, on pourra demander à l'entreprise de tenir parole.
Published at
2024-02-18 16:05:45Event JSON
{
"id": "7588d835d5c315bae4ec8c220039bf5294ca71f9ec3462528abff27561a496ce",
"pubkey": "81e31d02b3d0b97ae960104572e2d79bf26e647a4d82afef56ce2395055364ff",
"created_at": 1708272345,
"kind": 1,
"tags": [
[
"proxy",
"https://mastodon.gougere.fr/users/bortzmeyer/statuses/111953336452716349",
"activitypub"
]
],
"content": "Ce qui est dingue, dans ce jugement canadien, est qu'une entreprise a tenté de prétendre que les informations données par son chatbot n'étaient pas contractuelles. Heureusement, le juge n'a pas suivi https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html\n\nMais cela ouvre plein de possibilités. Les chatbots étant désormais souvent basés sur un LLM qui hallucine, ils diront souvent n'importe quoi, et, si on a pensé, comme le plaignant, à faire une copie d'écran, on pourra demander à l'entreprise de tenir parole.",
"sig": "977fb20eeeddbcfd49326b3f62bae78da8d4926574b6b44208116fca04516d07dd118eb5e036853c07860ad4cc42aa7706bfbd373c868e2ee5631c3bd2371c3c"
}