1. Trátase de elaborar un artigo de opinión ao que anteceda unha exposición típica (ou breve informe) sobre as posibilidades da intelixencia artificial na construción de textos e de coñecemento, especialmente no ámbito escolar.

2. A exposición de esquema definido (ou informe) partirá do manexo de Chat GPT cunha finalidade específica: avaliar o resultado dun produto textual escolar, apreciar a perspectiva dominante nas redes sobre un tema polémico, etc. Deberá recoller:

  • os obxectivos da experimentación coa intelixencia artificial,
  • as instrucións empregadas,
  • as sucesivas peticións dadas,
  • os resultados acadados,
  • outras experiencias de manexo coñecidas,
  • conclusións sobre a utilidade da ferramenta.

Servirá, daquela, para centrar o tema do artigo e obter argumentos sólidos de experiencia e de feitos.

3. O artigo de opinión abordará a utilidade da intelixencia artificial na transmisión de información e a composición de textos e seguirá a estrutura típica deste xénero.

4. Poden servir de especial axuda as recomendacións para a escrita do punto 2 do apartado do texto argumentativo e esta presentación:

5. A realización deste traballo é estritamente persoal.
6. A entrega pode facerse en papel ou en documento dixital.
7. A data límite é o domingo 2 de xuño.


Máis materiais de apoio:

Actualidade sobre IA:

Perspectiva crítica (que non obvia as potencialidades da IA):

  • Presentación como información de datos nesgados, prexuizosos ou falsos. Amplificación de estereotipos, prexuízos sociais e discursos de odio.
  • Uso de milleiros de contas falsas nas redes para difundir bulos (automatización mediante bots de fake news). Estase manipulando masivamente a opinión pública para acceder ao poder.
  • Creación e difusión de contidos falsos e manipulados (fotos, audios ou vídeos nos que se imitan -e pasan por reais- determinadas persoas: deepfakes). Aplicacións que “ispen” sen consentimento, por exemplo. Xeración consecuente de desinformación e ciberterrorismo político.
  • Uso de datos privados e sensíbeis dos usarios da rede. Venda ou cesión dos nosos datos de uso da net a gobernos e partidos extremistas.
  • Control e suplantación da identidade das persoas. Refinamento das ferramentas da ciberdelincuencia.
  • Identificación (que pode ser errónea) en espazos públicos mediante tecnoloxía de recoñecemento facial para fichar ou intervir.
  • Discriminacións laborais ou bancarias por mor dos sistemas algorítmicos que asignan riscos a determinados grupos sociais.
  • Redución e transformación de postos de traballo en determinados sectores (prevese que se automatice o 30% dos empregos, se ben medrarán algúns especializados).
  • Dependencia da asistencia da IA na toma de decisións, na creación e no manexo da información.
  • Maior concentración de poder económico (poucas e grandes corporacións monopolizan o seu desenvolvemento).
  • Usos armamentísticos automatizados.
  • Etc.

Nun estudo da Universidade de Stanford afírmase:

«Os sistemas de intelixencia artificial estanse a utilizar ao servizo da desinformación en Internet, o que lles dá o potencial de converterse nunha ameaza para a democracia e nunha ferramenta para o fascismo. Desde vídeos deepfake ata bots en liña que manipulan o discurso público falsificando o consenso e difundindo noticias falsas, existe o perigo de que os sistemas de IA minen a confianza social. A tecnoloxía pode ser apropiada por criminais, estados, extremistas ideolóxicos ou simplemente grupos de intereses especiais, co fin de manipular a xente para obter beneficios económicos ou vantaxes políticas.

Última modificación: xoves, 23 de maio de 2024, 9:48 PM