Produción: artigo de opinión
1. Trátase de elaborar un artigo de opinión ao que anteceda unha exposición típica (ou breve informe) sobre as posibilidades da intelixencia artificial na construción de textos e de coñecemento, especialmente no ámbito escolar.
2. A exposición de esquema definido (ou informe) partirá do manexo de Chat GPT cunha finalidade específica: avaliar o resultado dun produto textual escolar, apreciar a perspectiva dominante nas redes sobre un tema polémico, etc. Deberá recoller:
- os obxectivos da experimentación coa intelixencia artificial,
- as instrucións empregadas,
- as sucesivas peticións dadas,
- os resultados acadados,
- outras experiencias de manexo coñecidas,
- conclusións sobre a utilidade da ferramenta.
Servirá, daquela, para centrar o tema do artigo e obter argumentos sólidos de experiencia e de feitos.
3. O artigo de opinión abordará a utilidade da intelixencia artificial na transmisión de información e a composición de textos e seguirá a estrutura típica deste xénero.
4. Poden servir de especial axuda as recomendacións para a escrita do punto 2 do apartado do texto argumentativo e esta presentación:
5. A realización deste traballo é estritamente persoal.
6. A entrega pode facerse en papel ou en documento dixital.
7. A data límite é o domingo 2 de xuño.
Máis materiais de apoio:
- Criterios para avaliar o traballo, recomendacións ante erros detectados e modelos reais
- Unha experiencia de manexo de Chat GPT e Unha reflexión ao respecto (en vídeo)
- Apoio para compoñer un texto expositivo de esquema típico / e para elaborar un informe
- Guión elemental da escrita dun artigo de opinión
- Artigos do alumnado con correccións (doutro curso, sen nomes)
Actualidade sobre IA:
- Etiqueta IA en Nós Diario
- Etiqueta IA en GCiencia
- A Eurocámara dá luz verde ás primeiras regras comúns para limitar os riscos da Intelixencia Artificial - O Parlamento da UE aproba regular a intelixencia artificial e prohibir os sistemas máis perigosos
- Que é Q*, o misterioso proxecto de Open AI? Sería perigoso para a humanidade ese desenvolvemento da intelixencia artificial?
- Medra a demanda de perfís humanísticos para o desenvolvemento da intelixencia artificial
- É a intelixencia artificial unha ameaza para a humanidade?
Perspectiva crítica (que non obvia as potencialidades da IA):
- Presentación como información de datos nesgados, prexuizosos ou falsos. Amplificación de estereotipos, prexuízos sociais e discursos de odio.
- Uso de milleiros de contas falsas nas redes para difundir bulos (automatización mediante bots de fake news). Estase manipulando masivamente a opinión pública para acceder ao poder.
- Creación e difusión de contidos falsos e manipulados (fotos, audios ou vídeos nos que se imitan -e pasan por reais- determinadas persoas: deepfakes). Aplicacións que “ispen” sen consentimento, por exemplo. Xeración consecuente de desinformación e ciberterrorismo político.
- Uso de datos privados e sensíbeis dos usarios da rede. Venda ou cesión dos nosos datos de uso da net a gobernos e partidos extremistas.
- Control e suplantación da identidade das persoas. Refinamento das ferramentas da ciberdelincuencia.
- Identificación (que pode ser errónea) en espazos públicos mediante tecnoloxía de recoñecemento facial para fichar ou intervir.
- Discriminacións laborais ou bancarias por mor dos sistemas algorítmicos que asignan riscos a determinados grupos sociais.
- Redución e transformación de postos de traballo en determinados sectores (prevese que se automatice o 30% dos empregos, se ben medrarán algúns especializados).
- Dependencia da asistencia da IA na toma de decisións, na creación e no manexo da información.
- Maior concentración de poder económico (poucas e grandes corporacións monopolizan o seu desenvolvemento).
- Usos armamentísticos automatizados.
- Etc.
Nun estudo da Universidade de Stanford afírmase:
«Os sistemas de intelixencia artificial estanse a utilizar ao servizo da desinformación en Internet, o que lles dá o potencial de converterse nunha ameaza para a democracia e nunha ferramenta para o fascismo. Desde vídeos deepfake ata bots en liña que manipulan o discurso público falsificando o consenso e difundindo noticias falsas, existe o perigo de que os sistemas de IA minen a confianza social. A tecnoloxía pode ser apropiada por criminais, estados, extremistas ideolóxicos ou simplemente grupos de intereses especiais, co fin de manipular a xente para obter beneficios económicos ou vantaxes políticas.