Sebastian Meineck on Nostr: Welche Aussagekraft hat es überhaupt, große Sprachmodelle mit Methoden der ...
Published at
2023-10-17 14:16:47Event JSON
{
"id": "cbe5753f3a0a1fa04c4d802b06d48efb38c56e9fde643aaff593376f7b8e9ba0",
"pubkey": "2df2108b777454b5ad78eb74d6296d8b7e32c89d0c0cc242e4ebc40a879f8e5f",
"created_at": 1697552207,
"kind": 1,
"tags": [
[
"t",
"ai"
],
[
"t",
"chatgpt"
],
[
"proxy",
"https://mastodon.social/users/sebmeineck/statuses/111250781469529223",
"activitypub"
]
],
"content": "Welche Aussagekraft hat es überhaupt, große Sprachmodelle mit Methoden der Psychologie zu untersuchen? Ich sehe hier die große Gefahr eines Zirkelschlusses: Dass psychologische Vorgänge zuerst unterstellt und daraufhin auch beobachtet werden, obwohl der Untersuchungsgegenstand selbst nicht psychologisch ist.\n\nStudie: Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language Models -- and Disappeared in GPT-4\nhttps://arxiv.org/abs/2306.07622\n\nBesprechung: https://www.zeit.de/digital/2023-10/chatgpt-ki-sprachmodelle-intuition-intelligenz/komplettansicht\n\n#AI #chatGPT",
"sig": "3d717c06900a4183a44635fdf259d6651b6142635a7cdbfa3b6d871c54c47f62fcb03bc6d4e8bc5577d111ee30259346c2527c8ec71fcf8dd013602847aed124"
}