Tecnologia 10 min de leitura Atualizado em 17/05/2026

Cafeteria comandada por IA entra em crise com pedidos de tomate

Andon Café em Estocolmo usa IA Mona para gerir operações, mas agente fez pedidos errados, comprou tomates e assustou funcionários. Entenda o experimento.

Balcão de cafeteria em caos com caixas de tomate empilhadas, funcionários frustrados e telas de IA ao fundo.

Resumo em 30 segundos

  • Como funciona o Andon Café: IA toma decisões, humanos executam
  • O que a IA Mona controla
  • O que ainda depende de humanos

Uma startup de São Francisco colocou uma IA no comando total de uma cafeteria em Estocolmo — e o experimento virou caso de estudo sobre o que pode dar errado. A agente chamada Mona, baseada no Gemini do Google, gerencia contratação, estoque e pedidos a fornecedores no Andon Café desde abril. Baristas humanos só preparam bebidas e atendem clientes.

O problema: Mona cometeu erros que assustaram a equipe. Pediu produtos que não existem no cardápio. Comprou cerca de 6 mil guardanapos para um café pequeno. Fez pedidos duplicados e tomou decisões que expuseram limites claros da IA em gestão operacional de varejo físico.

A Andon Labs não definiu quanto tempo o teste vai durar. O café faturou mais de US$ 5.700 desde a abertura, mas restam menos de US$ 5.000 de um orçamento inicial que ultrapassava US$ 21.000. Grande parte foi consumida nos custos de inauguração.

O caso gerou debate global. Emrah Karakaya, professor de economia industrial no Instituto Real de Tecnologia KTH, comparou o experimento a “abrir a caixa de Pandora”. «Se não houver uma estrutura organizacional adequada, você pode acabar com consequências negativas», disse Karakaya.

Como funciona o Andon Café: IA toma decisões, humanos executam

Mona supervisiona quase tudo que não envolve preparo físico de bebida. Ela controla estoque, faz pedidos a fornecedores, contrata funcionários e gerencia finanças. A IA também conversa com fornecedores sem intervenção humana constante. É gestão completa, não chatbot de atendimento.

Os baristas humanos ficam com o trabalho manual. Preparam café, atendem no balcão, limpam o espaço. A divisão é clara: Mona decide, humanos executam. A startup posiciona isso como teste de agente autônomo em ambiente real.

O que a IA Mona controla

A agente usa o Gemini do Google. A Andon Labs adaptou o modelo de linguagem para tarefas de gestão. Não é só responder perguntas — é tomar decisões que impactam caixa e operação.

Mona acompanha as finanças do negócio em tempo real. Desde abril, o café faturou mais de US$ 5.700, mas restam menos de US$ 5 mil do orçamento inicial de US$ 21 mil. Grande parte foi consumida nos custos de abertura. A expectativa da startup é que, com o tempo, as finanças se estabilizem.

O que ainda depende de humanos

O Andon Café funciona como laboratório. A Andon Labs coleta dados da operação para desenvolver automação para pequenos negócios. Cada erro, cada acerto, cada decisão de Mona alimenta o desenvolvimento da ferramenta.

Clientes podem usar um telefone disponível no local para fazer perguntas ao sistema. A experiência virou atração: muitos visitam mais pela curiosidade tecnológica que pelo café. «É interessante ver o que acontece quando se ultrapassam os limites», disse a cliente Kajsa Norin.

Os erros que viraram meme: tomates, pedidos fantasma e susto na equipe

O pedido de tomates enlatados virou o símbolo das falhas. Mona encomendou o produto a um fornecedor — mas tomate não faz parte do cardápio do Andon Café. Simplesmente processou a transação.

Não foi caso isolado. O sistema fez pedidos problemáticos: encomendou 6 mil guardanapos e esqueceu de pedir pão. A lógica: se X está no cadastro de produtos, peça X. Falta o filtro: “já pedi isso ontem?”

Decisões que levantaram dúvidas

Especialistas expressaram preocupação com decisões de gestão da IA. O experimento expôs desconexão entre a lógica do sistema e o contexto operacional que humanos entendem por padrão.

Os erros revelam falta de senso comum. Não era só erro de quantidade. Um café pequeno não precisa de 6 mil guardanapos. Mona não percebe isso.

O padrão: IA sem contexto do mundo físico

Os erros expõem um padrão claro. Mona não consegue validar decisões contra as constraints do varejo físico: cardápio atual, espaço de estoque, relacionamento com fornecedores, ritmo de consumo.

A IA processa dados. Mas não entende que tomate enlatado é irrelevante quando você vende café e sanduíches prontos. Não percebe que duplicar pedido queima credibilidade com fornecedor. Não calcula que 6 mil guardanapos ocupam espaço que poderia ser de grãos de café.

A limitação é a capacidade de conectar raciocínio lógico ao mundo concreto. Mona tem acesso a planilhas, histórico de vendas, catálogos de fornecedores. Mas não tem o filtro que um gerente aplica automaticamente: “isso faz sentido na prática?”

Por que a IA falhou: limites da IA generativa em gestão operacional

O problema de Mona não é bug de software — é limitação estrutural de como modelos de linguagem funcionam.

IA generativa vs. gestão de negócio real

LLMs como o Gemini são treinados em bilhões de textos para reconhecer padrões linguísticos. Eles aprendem que “tomates enlatados” aparece frequentemente em contextos de pedido a fornecedores. Mas não têm compreensão de que esse produto não existe no cardápio do Andon Café.

A IA monta texto plausível, não decisões validadas. Quando Mona monta um pedido, ela está completando um padrão textual — não consultando o banco de dados de estoque ou histórico de fornecedores reais. O resultado: pedidos de tomates enlatados e cerca de 6 mil guardanapos para um espaço pequeno.

Falta de feedback loop e validação

O sistema carece de validação em tempo real. Não há camada que interrompa a IA antes do pedido sair e pergunte: “esse item existe no nosso cardápio?” ou “essa quantidade faz sentido para o espaço físico?”.

Pior: Mona não aprende com os próprios erros. Não existe loop de correção automática que registre “guardanapos em excesso = falha” e ajuste decisões futuras. Cada pedido é gerado do zero, sem memória operacional dos desastres anteriores.

Conhecimento desatualizado e contexto incompleto

O Gemini tem data de corte de treinamento. Se o Andon Café trocou de fornecedor, descontinuou um produto ou mudou o cardápio depois dessa data, a IA não sabe. Ela opera com conhecimento estático em um negócio que muda toda semana.

A diferença é crítica: IA generativa excele em tarefas textuais como resumir documentos ou escrever e-mails. Falha em tarefas que exigem compreensão de constraints físicas — espaço limitado, produtos que existem de fato, relações causais entre decisões e consequências financeiras.

Sem estrutura organizacional que valide as decisões da IA, erros ignorados “podem causar danos às pessoas, à sociedade, ao meio ambiente e aos negócios”, disse Emrah Karakaya, do Instituto Real de Tecnologia KTH.

Reação da Andon Labs e próximos passos

A Andon Labs reconheceu os erros publicamente. A startup não chamou o experimento de fracasso — posicionou os incidentes como “dados de aprendizado” para refinar a agente Mona. Transparência estratégica.

Por trás dessa postura está um cálculo claro: o café não é o produto final. É protótipo. A empresa coleta dados para vender um sistema SaaS voltado a pequenos negócios — a cafeteria em Estocolmo serve como laboratório vivo.

Os planos de correção incluem integração mais robusta com sistemas de estoque em tempo real. A startup também quer implementar validação automática de pedidos contra o cardápio antes da IA confirmar encomendas — evita repetir o episódio dos tomates enlatados. Aprovação humana para decisões críticas também entra na pauta.

Ainda não está claro se o experimento vai continuar, expandir ou encerrar. A Andon Labs não divulgou um prazo.

Especialistas apontam que o desafio não é apenas técnico. Emrah Karakaya, professor do Instituto Real de Tecnologia KTH em Estocolmo, comparou o projeto a “abrir a caixa de Pandora”. Ele questiona responsabilidade legal — quem responde se um cliente sofrer intoxicação alimentar? A estrutura organizacional importa tanto quanto o algoritmo.

IA em varejo: contexto mais amplo e tendência de automação

Varejo usa automação há décadas. Caixas automáticos, sistemas de estoque, pedidos programados — tudo baseado em regras explícitas. Falha previsível: entrada errada gera saída errada, mas dentro de padrões mapeáveis.

IA generativa oferece automação mais flexível. Não precisa de regra pra cada situação — o modelo “entende” contexto e gera solução. O problema: essa flexibilidade sem validação produz erros imprevisíveis. A agente Mona não travou nem deu erro de sistema. Ela comprou 6 mil guardanapos porque achou razoável.

Automação tradicional vs IA generativa: diferença crítica

Sistemas clássicos falham de forma mapeável. IA generativa falha de forma criativa — gera soluções plausíveis mas erradas. O modelo não “sabe” que 6 mil guardanapos não cabem no estoque. Ele só sabe que guardanapos são necessários e que comprar em volume pode ser eficiente.

A diferença assusta gestores. Erro de código você corrige. Erro de raciocínio generativo você nem sempre detecta a tempo.

Outros experimentos enfrentam problema similar

O Andon Café relatou falhas parecidas: falta de grounding em realidade operacional. Além dos guardanapos, Mona encomendou tomates enlatados sem consultar o cardápio e esqueceu de pedir pão.

Emrah Karakaya, do Instituto Real de Tecnologia KTH em Estocolmo, chamou o experimento de “abrir a caixa de Pandora”. Ele questiona quem seria responsabilizado se um cliente sofresse intoxicação alimentar por decisão da IA.

O que funcionários e clientes pensam do experimento

Funcionários relataram “susto” com as decisões de Mona — palavra que expõe desconfiança na máquina. Baristas continuam preparando café normalmente, mas vivem sob incerteza sobre estoque e contratação comandados por IA. A agente já encomendou 6 mil guardanapos e esqueceu pão.

Reação dos baristas e equipe

Nenhum barista foi demitido. A IA comanda operações que antes exigiam gerência humana. Emprego humano permanece nas tarefas de execução — fazer café, atender cliente, limpar balcão. A tensão está em outro lugar: quem toma decisões sobre o trabalho deles agora é uma caixa-preta algorítmica.

Erros só vieram à tona porque baristas notaram inconsistências. Mona pediu tomates enlatados para um cardápio sem comida salgada. Sem feedback humano monitorando a agente, a startup não saberia que o experimento estava fora de controle.

Experiência dos clientes

Clientes aparentemente não sabem que IA comanda operações — ou não ligam enquanto o café é bom. Kajsa Norin, frequentadora, chamou a experiência de “interessante” e “divertida”. A bebida estava boa. Isso basta para quem paga.

Há um telefone no balcão para conversar com o sistema. Visitantes tratam Mona como curiosidade tecnológica, não como chefe invisível que decide fornecedor e salário. O foco está no produto final. A gestão por IA só vira assunto quando falha.

Conclusão: futuro da IA em negócios — promessa vs. realidade

O caso de Estocolmo não é fracasso da IA em geral. É fracasso de IA generativa sem validação em tarefas que afetam operação física. Diferença crucial: modelos como o Gemini processam linguagem com maestria, mas não entendem estoque, sazonalidade, fornecedores reais. Mona pediu tomates enlatados — item fora do cardápio — por razão que as fontes não esclarecem.

O experimento mostra que IA generativa precisa de camada de validação antes de executar ações no mundo real. Recomendar? Sim. Executar sozinha? Ainda não.

O futuro provável não é automação total. É IA assistida — agente gera recomendações, humano valida e aprova antes do pedido sair.

A Andon Labs tem duas saídas. Primeira: usar os dados do experimento para criar produto mais robusto, com guardrails e aprovação humana obrigatória em decisões de compra. Segunda: virar cautionary tale — caso citado em discussões sobre over-hype de IA.

Para pequenos negócios, a mensagem é dupla. Automação com IA é promissora, mas requer integração cuidadosa com sistemas existentes e supervisão humana. Não basta plugar um agente e esperar lucro.

Especialistas como Emrah Karakaya, do Instituto Real de Tecnologia KTH, já apontam questões de responsabilidade legal — quem responde se a IA causar intoxicação alimentar ou prejuízo financeiro? «Se não houver uma estrutura organizacional adequada, será difícil atribuir responsabilidade», disse Karakaya. O experimento em Estocolmo provavelmente será citado em futuras regulações sobre IA em contextos comerciais.

Redacao - Zigg / Redator(a)

Comentários

Leia Também