Compilación de los casos de estudio desarrollados por los diferentes grupos
El presente proyecto analiza el uso de la inteligencia artificial de Meta integrada en WhatsApp, una herramienta que, por su carácter cotidiano y masivo, se ha convertido en un espacio privilegiado para observar cómo la IA comienza a intervenir en diferentes dimensiones de la vida humana. Nuestro caso de estudio se centra precisamente en esta integración: cómo funciona, cómo es utilizada por los usuarios y qué implicaciones emergen cuando una IA convive directamente con prácticas comunicativas tan íntimas como las que ocurren en un chat personal.
Resumen: El objetivo de este trabajo es analizar a Gemini desde una perspectiva comunicativa, funcional y ética para comprender cómo su diseño, su comportamiento conversacional y sus políticas influyen en la experiencia del usuario, cuestionando así sus implicaciones en la comunicación digital actual.
TRABAJO ESCRITO: https://docs.google.com/document/d/1-8Ytg092OkMFdYVI2vLvvFCmaxU7s9obmJLcVXQoay4/edit?usp=sharing
PÁGINA WEB (PRODUCTO): https://mapaordonez2005.wixstudio.com/geminiai
El documento analiza Microsoft Copilot como una herramienta de IA generativa que transforma la manera en que se produce y gestiona contenido digital. Copilot facilita tareas como redactar, resumir, diseñar o programar, lo que aumenta la productividad y cambia el rol del usuario hacia una posición de supervisión y curaduría más que de creación directa. Al mismo tiempo, el estudio señala riesgos relacionados con privacidad, propiedad intelectual, sesgos y transparencia, demostrando que su uso no es neutral.
https://docs.google.com/document/d/11xOVBnTUhiLGzwkzJi1aFwTUM792q_nVGmsPLTHTVC8/edit?usp=sharing
Que mejor que un ensayo de estudio y un gran video explicativo para comprender acerca de SORA IA y sus funciones, además de ver las funciones también aprenderemos de como SORA afecta la comunicación e interactividad humana, se habla sobre las restricciones de la herramienta, su supervisión y moral como compañía llevando a cabo el preguntar los retos éticos y sociales, finalmente hablaremos de las restricciones de este caso de estudio y verán algunos ejemplos de posibles usos de SORA para diferentes redes o usos.
https://www.youtube.com/watch?v=dNLn4B88VoU
Reporte:https://docs.google.com/document/d/1N8_6P_ILy945N5D5y7p5lcqxzXxJJrgdg2kMwIeS7TA/edit?usp=sharing
El texto explica cómo la IA, especialmente ChatGPT, está transformando la comunicación al generar contenidos y participar como interlocutor, pero también plantea riesgos por la amplia recolección de datos, la falta de transparencia y la reproducción de sesgos en sus respuestas. Además, señala que estos sistemas operan dentro de lógicas de vigilancia y almacenamiento masivo de información, lo que exige pensamiento crítico y responsabilidad ética para evitar desigualdades y mal uso de la tecnología.
Este texto explica que Perplexity AI es una plataforma de inteligencia artificial que combina modelos de lenguaje avanzados con búsqueda web en tiempo real para ofrecer respuestas precisas, claras y con fuentes verificables. Resalta que la herramienta permite hacer consultas en lenguaje natural, mantiene el contexto de la conversación y facilita la verificación de la información mediante enlaces a las fuentes originales, siendo útil para estudiantes y profesionales que necesitan información confiable y actualizada. Además, subraya la importancia de un uso ético y crítico de esta tecnología para garantizar transparencia y confiabilidad en la comunicación digital.
En este trabajo analizamos a Grok, la IA de xAI en X, para entender cómo influye en la comunicación y qué riesgos éticos presenta. A partir de autores como Jenkins, Balladares, Gray, Floridi & De Bruin y Sued, identificamos que Grok opera en un ecosistema donde los datos, las decisiones de diseño y la falta de transparencia pueden amplificar sesgos y desinformación. Las noticias sobre uso indebido de datos, contenido antisemita, instrucciones internas problemáticas y el “modo Spicy” confirmaron estos riesgos en la práctica. Con esa base elaboramos el podcast, concluyendo que Grok puede ser útil para seguir conversaciones públicas, pero también puede reforzar fake news, por lo que como comunicadores debemos verificar, contextualizar y usar la herramienta con responsabilidad.
Podcast: https://youtu.be/qObmW_P3jqw?feature=shared
Docs: https://docs.google.com/document/d/1-1eP_WR8E90zWh29Qq459IBxFA0Of3VYqHL3SPgzb9o/edit?usp=drivesdk
El texto analiza Synthesia, una plataforma de IA que convierte texto en video con avatares, mostrando cómo cambia la producción audiovisual al estandarizar la estética y distribuir la autoría entre usuario y plataforma. Señala riesgos relacionados con datos biométricos, desinformación, sesgos y colonialismo digital, pero también oportunidades para educación y accesibilidad. Finalmente propone principios de uso responsable (transparencia, consentimiento, cuidado de datos, diversidad y responsabilidad profesional) y recomienda usar Synthesia como apoyo y no como reemplazo de la creatividad humana.
Video: https://youtu.be/QEYnLHH3XqY
Doc: https://docs.google.com/document/d/1sNMu3B73In8WYREd5PA4B0NpolA8WDyIjvmnPSAjeKo/edit?usp=sharing