Andreas Wagner on Nostr: Die Frage, ob LLMs intelligent (oder nützlich oder zuverlässig oder verständig ...
Die Frage, ob LLMs intelligent (oder nützlich oder zuverlässig oder verständig oder kompetente "Sprecher") sind oder nicht, bewegt sich für mich auf einer komisch allgemeinen Ebene. Um zu verstehen, was sie tun, muss man m.E. nicht nur verstehen, dass sie probabilistische Next Token Predictors sind (die autoregressiven LLMs jedenfalls), sondern auch, dass (und wie und welche genau) sie interne Repräsentationen von abstrakten Einheiten wie grammatischen Wortklassen, rhetorischen Textstrukturen und semantischen Feldern haben - und wie diese Repräsentationen in die Next Token Wahrscheinlichkeiten hineinwirken.
#DHd2025 #LLM #DigitalHumanities
Published at
2025-03-06 08:23:12Event JSON
{
"id": "830b146fa5b62fe65a556da2e5dc74e26cf3796027ae51eaa5d3f6abcd0074e7",
"pubkey": "e9e5c84d14c3af15598d4233e9e4096815e31f1f083a60ff75534a9cbd896f95",
"created_at": 1741249392,
"kind": 1,
"tags": [
[
"t",
"Dhd2025"
],
[
"t",
"llm"
],
[
"t",
"digitalhumanities"
],
[
"proxy",
"https://hcommons.social/users/anwagnerdreas/statuses/114114520183950307",
"activitypub"
]
],
"content": "Die Frage, ob LLMs intelligent (oder nützlich oder zuverlässig oder verständig oder kompetente \"Sprecher\") sind oder nicht, bewegt sich für mich auf einer komisch allgemeinen Ebene. Um zu verstehen, was sie tun, muss man m.E. nicht nur verstehen, dass sie probabilistische Next Token Predictors sind (die autoregressiven LLMs jedenfalls), sondern auch, dass (und wie und welche genau) sie interne Repräsentationen von abstrakten Einheiten wie grammatischen Wortklassen, rhetorischen Textstrukturen und semantischen Feldern haben - und wie diese Repräsentationen in die Next Token Wahrscheinlichkeiten hineinwirken.\n\n#DHd2025 #LLM #DigitalHumanities",
"sig": "79a8c4fe13c6c98c5c72d6ca290b7c67ecf45d61c1a1413d7a4ee8ef654f2ec0a4d9f0af47c37baf333379676352cc314c4b5e59397ba69c284eb9bceaa7a749"
}