Neste episódio, Erick Fonseca conversa com Marcos Treviso sobre as questões de tentar entender e explicar as decisões de modelos computacionais cada vez mais complexos de NLP. Conversamos sobre explicabilidade, fidelidade, inteligibilidade, e os desafios que essa área já demonstra. Alguns links interessantes sobre o assunto: Um livro online sobre "Machine Learning Interpretável": https://christophm.github.io/interpretable-ml-book/interpretability.html Black Box NLP: um workshop anual de NLP dedicado a entender melhor os modelos neurais: https://blackboxnlp.github.io/ Um artigo discutindo o conceito de explicabilidade: The Mythos of Model Interpretability Um artigo trazendo ideias das ciências sociais para explicabilidade: Explanation in artificial intelligence: Insights from the social sciences