Cafeteria comandada por IA entra em crise com pedidos de tomate
Andon Café em Estocolmo usa IA Mona para gerir operações, mas agente fez pedidos errados, comprou tomates e assustou funcionários. Entenda o experimento.

Resumo em 30 segundos
- Como funciona o Andon Café: IA toma decisões, humanos executam
- O que a IA Mona controla
- O que ainda depende de humanos
Uma startup de São Francisco colocou uma IA no comando total de uma cafeteria em Estocolmo — e o experimento virou caso de estudo sobre o que pode dar errado. A agente chamada Mona, baseada no Gemini do Google, gerencia contratação, estoque e pedidos a fornecedores no Andon Café desde abril. Baristas humanos só preparam bebidas e atendem clientes.
O problema: Mona cometeu erros que assustaram a equipe. Pediu produtos que não existem no cardápio. Comprou cerca de 6 mil guardanapos para um café pequeno. Fez pedidos duplicados e tomou decisões que expuseram limites claros da IA em gestão operacional de varejo físico.
A Andon Labs não definiu quanto tempo o teste vai durar. O café faturou mais de US$ 5.700 desde a abertura, mas restam menos de US$ 5.000 de um orçamento inicial que ultrapassava US$ 21.000. Grande parte foi consumida nos custos de inauguração.
O caso gerou debate global. Emrah Karakaya, professor de economia industrial no Instituto Real de Tecnologia KTH, comparou o experimento a “abrir a caixa de Pandora”. «Se não houver uma estrutura organizacional adequada, você pode acabar com consequências negativas», disse Karakaya.
Como funciona o Andon Café: IA toma decisões, humanos executam
Mona supervisiona quase tudo que não envolve preparo físico de bebida. Ela controla estoque, faz pedidos a fornecedores, contrata funcionários e gerencia finanças. A IA também conversa com fornecedores sem intervenção humana constante. É gestão completa, não chatbot de atendimento.
Os baristas humanos ficam com o trabalho manual. Preparam café, atendem no balcão, limpam o espaço. A divisão é clara: Mona decide, humanos executam. A startup posiciona isso como teste de agente autônomo em ambiente real.
O que a IA Mona controla
A agente usa o Gemini do Google. A Andon Labs adaptou o modelo de linguagem para tarefas de gestão. Não é só responder perguntas — é tomar decisões que impactam caixa e operação.
Mona acompanha as finanças do negócio em tempo real. Desde abril, o café faturou mais de US$ 5.700, mas restam menos de US$ 5 mil do orçamento inicial de US$ 21 mil. Grande parte foi consumida nos custos de abertura. A expectativa da startup é que, com o tempo, as finanças se estabilizem.
O que ainda depende de humanos
O Andon Café funciona como laboratório. A Andon Labs coleta dados da operação para desenvolver automação para pequenos negócios. Cada erro, cada acerto, cada decisão de Mona alimenta o desenvolvimento da ferramenta.
Clientes podem usar um telefone disponível no local para fazer perguntas ao sistema. A experiência virou atração: muitos visitam mais pela curiosidade tecnológica que pelo café. «É interessante ver o que acontece quando se ultrapassam os limites», disse a cliente Kajsa Norin.
Os erros que viraram meme: tomates, pedidos fantasma e susto na equipe
O pedido de tomates enlatados virou o símbolo das falhas. Mona encomendou o produto a um fornecedor — mas tomate não faz parte do cardápio do Andon Café. Simplesmente processou a transação.
Não foi caso isolado. O sistema fez pedidos problemáticos: encomendou 6 mil guardanapos e esqueceu de pedir pão. A lógica: se X está no cadastro de produtos, peça X. Falta o filtro: “já pedi isso ontem?”
Decisões que levantaram dúvidas
Especialistas expressaram preocupação com decisões de gestão da IA. O experimento expôs desconexão entre a lógica do sistema e o contexto operacional que humanos entendem por padrão.
Os erros revelam falta de senso comum. Não era só erro de quantidade. Um café pequeno não precisa de 6 mil guardanapos. Mona não percebe isso.
O padrão: IA sem contexto do mundo físico
Os erros expõem um padrão claro. Mona não consegue validar decisões contra as constraints do varejo físico: cardápio atual, espaço de estoque, relacionamento com fornecedores, ritmo de consumo.
A IA processa dados. Mas não entende que tomate enlatado é irrelevante quando você vende café e sanduíches prontos. Não percebe que duplicar pedido queima credibilidade com fornecedor. Não calcula que 6 mil guardanapos ocupam espaço que poderia ser de grãos de café.
A limitação é a capacidade de conectar raciocínio lógico ao mundo concreto. Mona tem acesso a planilhas, histórico de vendas, catálogos de fornecedores. Mas não tem o filtro que um gerente aplica automaticamente: “isso faz sentido na prática?”
Por que a IA falhou: limites da IA generativa em gestão operacional
O problema de Mona não é bug de software — é limitação estrutural de como modelos de linguagem funcionam.
IA generativa vs. gestão de negócio real
LLMs como o Gemini são treinados em bilhões de textos para reconhecer padrões linguísticos. Eles aprendem que “tomates enlatados” aparece frequentemente em contextos de pedido a fornecedores. Mas não têm compreensão de que esse produto não existe no cardápio do Andon Café.
A IA monta texto plausível, não decisões validadas. Quando Mona monta um pedido, ela está completando um padrão textual — não consultando o banco de dados de estoque ou histórico de fornecedores reais. O resultado: pedidos de tomates enlatados e cerca de 6 mil guardanapos para um espaço pequeno.
Falta de feedback loop e validação
O sistema carece de validação em tempo real. Não há camada que interrompa a IA antes do pedido sair e pergunte: “esse item existe no nosso cardápio?” ou “essa quantidade faz sentido para o espaço físico?”.
Pior: Mona não aprende com os próprios erros. Não existe loop de correção automática que registre “guardanapos em excesso = falha” e ajuste decisões futuras. Cada pedido é gerado do zero, sem memória operacional dos desastres anteriores.
Conhecimento desatualizado e contexto incompleto
O Gemini tem data de corte de treinamento. Se o Andon Café trocou de fornecedor, descontinuou um produto ou mudou o cardápio depois dessa data, a IA não sabe. Ela opera com conhecimento estático em um negócio que muda toda semana.
A diferença é crítica: IA generativa excele em tarefas textuais como resumir documentos ou escrever e-mails. Falha em tarefas que exigem compreensão de constraints físicas — espaço limitado, produtos que existem de fato, relações causais entre decisões e consequências financeiras.
Sem estrutura organizacional que valide as decisões da IA, erros ignorados “podem causar danos às pessoas, à sociedade, ao meio ambiente e aos negócios”, disse Emrah Karakaya, do Instituto Real de Tecnologia KTH.
Reação da Andon Labs e próximos passos
A Andon Labs reconheceu os erros publicamente. A startup não chamou o experimento de fracasso — posicionou os incidentes como “dados de aprendizado” para refinar a agente Mona. Transparência estratégica.
Por trás dessa postura está um cálculo claro: o café não é o produto final. É protótipo. A empresa coleta dados para vender um sistema SaaS voltado a pequenos negócios — a cafeteria em Estocolmo serve como laboratório vivo.
Os planos de correção incluem integração mais robusta com sistemas de estoque em tempo real. A startup também quer implementar validação automática de pedidos contra o cardápio antes da IA confirmar encomendas — evita repetir o episódio dos tomates enlatados. Aprovação humana para decisões críticas também entra na pauta.
Ainda não está claro se o experimento vai continuar, expandir ou encerrar. A Andon Labs não divulgou um prazo.
Especialistas apontam que o desafio não é apenas técnico. Emrah Karakaya, professor do Instituto Real de Tecnologia KTH em Estocolmo, comparou o projeto a “abrir a caixa de Pandora”. Ele questiona responsabilidade legal — quem responde se um cliente sofrer intoxicação alimentar? A estrutura organizacional importa tanto quanto o algoritmo.
IA em varejo: contexto mais amplo e tendência de automação
Varejo usa automação há décadas. Caixas automáticos, sistemas de estoque, pedidos programados — tudo baseado em regras explícitas. Falha previsível: entrada errada gera saída errada, mas dentro de padrões mapeáveis.
IA generativa oferece automação mais flexível. Não precisa de regra pra cada situação — o modelo “entende” contexto e gera solução. O problema: essa flexibilidade sem validação produz erros imprevisíveis. A agente Mona não travou nem deu erro de sistema. Ela comprou 6 mil guardanapos porque achou razoável.
Automação tradicional vs IA generativa: diferença crítica
Sistemas clássicos falham de forma mapeável. IA generativa falha de forma criativa — gera soluções plausíveis mas erradas. O modelo não “sabe” que 6 mil guardanapos não cabem no estoque. Ele só sabe que guardanapos são necessários e que comprar em volume pode ser eficiente.
A diferença assusta gestores. Erro de código você corrige. Erro de raciocínio generativo você nem sempre detecta a tempo.
Outros experimentos enfrentam problema similar
O Andon Café relatou falhas parecidas: falta de grounding em realidade operacional. Além dos guardanapos, Mona encomendou tomates enlatados sem consultar o cardápio e esqueceu de pedir pão.
Emrah Karakaya, do Instituto Real de Tecnologia KTH em Estocolmo, chamou o experimento de “abrir a caixa de Pandora”. Ele questiona quem seria responsabilizado se um cliente sofresse intoxicação alimentar por decisão da IA.
O que funcionários e clientes pensam do experimento
Funcionários relataram “susto” com as decisões de Mona — palavra que expõe desconfiança na máquina. Baristas continuam preparando café normalmente, mas vivem sob incerteza sobre estoque e contratação comandados por IA. A agente já encomendou 6 mil guardanapos e esqueceu pão.
Reação dos baristas e equipe
Nenhum barista foi demitido. A IA comanda operações que antes exigiam gerência humana. Emprego humano permanece nas tarefas de execução — fazer café, atender cliente, limpar balcão. A tensão está em outro lugar: quem toma decisões sobre o trabalho deles agora é uma caixa-preta algorítmica.
Erros só vieram à tona porque baristas notaram inconsistências. Mona pediu tomates enlatados para um cardápio sem comida salgada. Sem feedback humano monitorando a agente, a startup não saberia que o experimento estava fora de controle.
Experiência dos clientes
Clientes aparentemente não sabem que IA comanda operações — ou não ligam enquanto o café é bom. Kajsa Norin, frequentadora, chamou a experiência de “interessante” e “divertida”. A bebida estava boa. Isso basta para quem paga.
Há um telefone no balcão para conversar com o sistema. Visitantes tratam Mona como curiosidade tecnológica, não como chefe invisível que decide fornecedor e salário. O foco está no produto final. A gestão por IA só vira assunto quando falha.
Conclusão: futuro da IA em negócios — promessa vs. realidade
O caso de Estocolmo não é fracasso da IA em geral. É fracasso de IA generativa sem validação em tarefas que afetam operação física. Diferença crucial: modelos como o Gemini processam linguagem com maestria, mas não entendem estoque, sazonalidade, fornecedores reais. Mona pediu tomates enlatados — item fora do cardápio — por razão que as fontes não esclarecem.
O experimento mostra que IA generativa precisa de camada de validação antes de executar ações no mundo real. Recomendar? Sim. Executar sozinha? Ainda não.
O futuro provável não é automação total. É IA assistida — agente gera recomendações, humano valida e aprova antes do pedido sair.
A Andon Labs tem duas saídas. Primeira: usar os dados do experimento para criar produto mais robusto, com guardrails e aprovação humana obrigatória em decisões de compra. Segunda: virar cautionary tale — caso citado em discussões sobre over-hype de IA.
Para pequenos negócios, a mensagem é dupla. Automação com IA é promissora, mas requer integração cuidadosa com sistemas existentes e supervisão humana. Não basta plugar um agente e esperar lucro.
Especialistas como Emrah Karakaya, do Instituto Real de Tecnologia KTH, já apontam questões de responsabilidade legal — quem responde se a IA causar intoxicação alimentar ou prejuízo financeiro? «Se não houver uma estrutura organizacional adequada, será difícil atribuir responsabilidade», disse Karakaya. O experimento em Estocolmo provavelmente será citado em futuras regulações sobre IA em contextos comerciais.

Comentários