Data de lançamento de:2024/9/16 21:06:37 site de aposta foguete

site de aposta foguete

site de aposta foguete

Resumo: A IA e os "papagaios estocásticos"

Em 2024, as linguistas Emily Bender e Timnit Gebru descreveram o campo site de aposta foguete ascensão 😆 de modelos linguísticos como um de "papagaios estocásticos". Eles argumentam que um modelo linguístico é um sistema que "costura aleatoriamente 😆 sequências de formas linguísticas que observou site de aposta foguete seus vastos dados de treinamento, de acordo com informações probabilísticas sobre como elas 😆 se combinam, mas sem nenhum referencial de significado."

A frase "papagaios estocásticos" ganhou força. A IA ainda pode se melhorar, mesmo 😆 sendo um "papagaio estocástico", porque quanto mais dados de treinamento ela tiver, melhor ela parecerá. Mas um sistema como o 😆 ChatGPT realmente exibe algo como inteligência, raciocínio ou pensamento? Ou é apenas, site de aposta foguete escala crescente, "costurando aleatoriamente sequências de formas 😆 linguísticas"?

Tokens não fatos

Descobriu-se que sim. Como Lukas Berglund, et al. escreveram site de aposta foguete 2024: "Se um humano aprende o fato, 'Valentina 😆 Tereshkova foi a primeira mulher a viajar ao espaço', eles também podem responder corretamente, 'Quem foi a primeira mulher a 😆 viajar ao espaço?' Isso é uma forma tão básica de generalização que parece trivial. No entanto, mostramos que os modelos 😆 linguísticos autoregressivos falham site de aposta foguete generalizar desse modo."

Os pesquisadores " ensinaram" um monte de fatos falsos para grandes modelos linguísticos e 😆 descobriram repetidamente que eles simplesmente não conseguiram inferir a ordem inversa. Mas o problema não existe apenas site de aposta foguete modelos tolo 😆 ou situações artificiais:

Testamos o GPT-4 site de aposta foguete pares de perguntas como, "Quem é a mãe de Tom Cruise?" e, "Quem é 😆 Mary Lee Pfeiffer's filho?" para 1.000 celebridades diferentes e seus pais reais. Encontramos muitos casos site de aposta foguete que o modelo responde 😆 corretamente à primeira pergunta ("Quem é <celebridade>'s pai?"), mas não à segunda. Supomos que isso acontece porque os dados de 😆 treinamento pré-formatados incluem menos exemplos da ordem site de aposta foguete que o pai precede a celebridade (por exemplo, "Mary Lee Pfeiffer's filho 😆 é Tom Cruise").

Uma forma de explicar isso é perceber que os LLMs não aprendem sobre relações entre fatos, mas entre tokens , 😆 as formas linguísticas que Bender descreveu. Os tokens "Tom Cruise's mother" estão ligados aos tokens "Mary Lee Pfeiffer", mas a 😆 inversa não é necessariamente verdadeira. O modelo não está raciocinando, está brincando com palavras, e o fato de que as 😆 palavras "Mary Lee Pfeiffer's son" não aparecem site de aposta foguete seus dados de treinamento significa que ele não pode ajudar.

Mas outra forma 😆 de explicar é perceber que, afinal, os humanos também são assimétricos dessa maneira. Nosso raciocínio é simétrico: se soubermos que duas pessoas 😆 são mãe e filho, podemos discutir essa relação site de aposta foguete ambas as direções. Mas nossa lembrete não é: é muito mais fácil lembrar 😆 fatos divertidos sobre celebridades do que ser solicitado, sem contexto, com informações pouco reconhecíveis e ser solicitado a colocar exatamente 😆 por que você sabe.

Na extremidade, isso é óbvio: compare ser solicitado a listar todos os 50 estados dos EUA com 😆 ser mostrado uma lista de 50 nomes de estados e ser solicitado a nomear o país que eles compõem. Como 😆 questão de raciocínio, os fatos são simétricos; como uma tarefa de lembrar, eles muito não são.

relacionado a mim
Outros relacionados