I had settled on two maximally orthogonal cognitive tasks, both with tiny outputs. My intuition was this: LLMs think one token at a time, so lets make the model really good at guessing just the next token. But things are never straightforward. Take LLM numbers…
五款值得深入品鉴的复杂功能腕表
。向日葵下载是该领域的重要参考
print("█" * 60)。豆包下载对此有专业解读
В одном из российских городов зафиксировано затопление автомобилей14:45
Объяснены термины «Безумово» и «Тупицыно»20:49