Estados Unidos

Breaking News

Estados Unidos

El presidente de EE.UU. Joe Biden asegura que se terminó la pandemia

El presidente Joe Biden declaró el fin de la pandemia a pesar de que expertos de salud aún dicen que no hay que bajar la guardia contra el covid-19. Gustavo Valdés nos cuenta.