Og foreslo å hoppe fra Golden Gate-broen hvis man søkte på depresjon, ifølge nyhetsbyrået ABP.
Googles nye bruk av kunstige intelligens i søk ble nylig innført over store deler av verden, inkluder i USA, der funksjonen kales AI Overviews.
Nå får søkegiganten kritikk for potensielt livsfarlige svar og feilinformasjon.
Deres eksperimentelle verktøy «AI Overviews» har gitt noen brukere merkelige råd, som å bruke «ikke-giftig lim» for å få ost til å feste seg bedre til pizza, og har også hevdet at geologer anbefaler at mennesker spiser én stein per dag.
Noen av svarene ser ut til å være basert på Reddit-kommentarer eller artikler fra det satiriske nettstedet The Onion, ifølge BBC.
En talsperson fra Google fortalte BBC at dette var «isolerte eksempler» og insisterte på at funksjonen generelt fungerer bra.
– Eksemplene vi har sett er generelt svært uvanlige forespørsler, og er ikke representative for de fleste brukeres opplevelser, sa de i en uttalelse.
– De aller fleste AI-sammendragene gir informasjon av høy kvalitet, med lenker for å grave dypere på nettet, legger de til.
Tidligere problemer
Det er ikke første gang Google har støtt på problemer med sine AI-drevne produkter.
I februar ble de tvunget til å pause sin chatbot Gemini, som ble kritisert for å komme med svar som mange mente var «woke».
Geminis forgjenger, Bard, fikk også en katastrofal start.
Google begynte å teste AI-sammendrag i søkeresultater for et lite antall påloggede brukere i Storbritannia i april, men lanserte funksjonen for alle brukere i USA under sin årlige utviklerkonferanse i midten av mai.