2017 12 Prueba Nacional de Lectura en Inglés II
2017 12 Prueba de Lectura de Inglés Universitario Nacional II
Sección c
Dirección: Esta sección tiene dos párrafos. Cada artículo va seguido de algunas preguntas o afirmaciones inconclusas. Cada artículo tiene cuatro opciones, denominadas a, b, cy D. Debes elegir la mejor opción y marcar la letra correspondiente en la hoja de respuestas 2.
Párrafo 1
Las preguntas 46 a 50 se basan en el pasaje siguiente.
Al comienzo de la película "Robot", un robot debe decidir a quién salvar después de que dos coches se atascan en el agua: Del. Spooner es todavía un niño. A pesar de los gritos de Spooner de "¡Sálvala, sálvala!", el robot lo salvó porque calculó que tenía 45 posibilidades de sobrevivir, mientras que Sarah solo tenía 11. La decisión del robot y su método de cálculo plantean una pregunta importante:
¿Haría un humano la misma elección? ¿Qué decisiones queremos que tomen nuestros oponentes robots?
Al idear sus Tres leyes de la robótica, Isaac Asimov evitó por completo el concepto de moralidad. Los robots no pueden dañar a los humanos ni permitir que los humanos sean dañados; 2. Los robots deben obedecer a los humanos a menos que dichas órdenes entren en conflicto con la primera ley; Un robot debe protegerse a menos que hacerlo entre en conflicto con la Primera o la Segunda Ley. Estas leyes estaban programadas en los robots de Asimov y no requerían pensamiento, juicio ni evaluación. No es necesario que les gusten los humanos ni que crean que algo anda mal o está mal. Simplemente no lo hacen.
El robot que salva la vida del cucharero en /robot sigue la ley cero de Asimov: un robot no puede dañar a un ser humano (a diferencia de un individuo o permitir que un ser humano sufra daño, lo cual es una extensión de la Primera ley que permite a un robot decidir cuál es el bien mayor. Según la primera ley, el robot no puede dañar al peligroso pistolero, pero según la ley cero, el robot puede matar al pistolero para salvar a otros.
¿Es posible con Asimov? Las medidas de seguridad, como las leyes, son controvertidas cuando se trata de programar robots, palabras como "daño" son vagas (y si el daño emocional reemplaza el daño al empleo humano), y los conceptos abstractos son problemáticos para codificar robots en Asimov. novelas. La complejidad y las lagunas de las tres leyes quedan expuestas. Incluso si estas leyes funcionan, el robot aún debe evaluar la situación.
Evaluar la situación puede ser complejo. condiciones en varios escenarios Posibles consecuencias Es dudoso que un programa de computadora pueda hacer esto, con al menos algunas consecuencias negativas. Los expertos en robótica del Laboratorio de Robótica de Bristol han diseñado un robot para salvar a los huracanes. Llámelo "salir". de peligro". Cuando un robot camina hacia el peligro, el robot lo aleja con éxito. Sin embargo, cuando los dos h-bots llegan al 100%, no pueden decidir a cuál salvar, dejándolos a ambos "muertos". Este experimento destaca la importancia de la moralidad. Sin moralidad, ¿cómo puede un robot decidir a quién salvar o qué es mejor para los humanos, especialmente si no puede calcular las probabilidades de supervivencia?
46. ¿Qué preguntas plantean los ejemplos de la película? aumentar
a) ¿Pueden los robots tomar mejores decisiones?
b) ¿Siguen los robots el "Cero" de Asimov
p>
d) ¿Cómo deberían ser los robots? programado.
47. ¿Qué piensa el autor de las Tres Leyes de la Robótica de Asimov?
a) Están claramente desconectados de la realidad.
b) No siguieron el sistema de codificación del robot.
c) Sentaron unas bases sólidas para la robótica.
d) No consideran cuestiones morales.
48. ¿Qué piensa el autor de los robots de Asimov?
Saben lo que es bueno o malo para los humanos
b) Están diseñados para no dañar el origen de la humanidad
c) Actúan en el mejor interés del propietario Cumplir con sus responsabilidades.
d) Dejan de funcionar cuando se trata de cuestiones éticas.
49. ¿Qué quiere expresar el autor cuando menciona la palabra "daño" en la Ley de Asimov?
a) Los conceptos abstractos son difíciles de programar.
b) A los robots les resulta difícil tomar decisiones
c) Los robots pueden causar daño en determinadas situaciones
d) El uso legal de Asimov Demasiados términos vagos
50. Lo que descubrió un robotista del Laboratorio de Robótica de Bristol durante sus experimentos.
Algún día los robots serán tan inteligentes como los humanos
b) Los robots pueden codificar cuestiones morales en sus programas
c) Los robots tienen dificultades para tomar decisiones en situaciones complejas situaciones.
d) Los robots se pueden programar para detectar peligros potenciales.