La Red de Conocimientos Pedagógicos - Currículum vitae - ¿Cómo utilizar la función SI?

¿Cómo utilizar la función SI?

Uso de la función SI: Determina si se cumple una condición: si se cumple, devuelve un valor, si no se cumple, devuelve otro valor.

El formato de sintaxis de la función SI: = if (prueba_lógica, valor_si_verdadero, valor_si_falso).

En términos generales, IF es una función de juicio condicional: = IF (condición de prueba, resultado 1, resultado 2), es decir, si se cumple la "condición de prueba", se muestra el "resultado 1", si la "condición de prueba" no se cumple Condición", luego se muestra "Resultado 2".

Al escribir fórmulas de múltiples condiciones anidadas con funciones IF, debemos prestar atención a los siguientes aspectos:

1. Al ingresar el contenido de la función, debe cambiar el método de entrada al inglés. formato;

p>

2. La expresión mayor o igual a es > =;

3.

4. Ingrese el corchete izquierdo y el corchete derecho al mismo tiempo, para que el número y nivel de corchetes no sea un problema, y ​​también será útil para desarrollar buenos hábitos en el aprendizaje de otras funciones. en el futuro.

上篇: Silbato Negro Rosa Chino Pinyin Explicación 下篇: Bibliografía detallada de la tecnología de desarrollo de aplicaciones HadoopIntroducción Capítulo 1 Descripción general de Hadoop 1.1 Hadoop Origin 1.1 Google y Hadoop Módulo 1.1.2 ¿Por qué introducir Hadoop 1.1.3 en la versión Hadoop? 1.2 Ecosistema Hadoop 1.3 Introducción a proyectos comunes de Hadoop 1.4 Aplicación de Hadoop en China 1.5 Resumen de este capítulo Capítulo 2 Instalación de Hadoop 2.1 Configuración de instalación del entorno Hadoop 2.1.1 Instalar VMware. 2.1.2 Instalar Ubuntu 2.1.3 Instalar VMwareTools 2.1.4 Instalar JDK 2.2 Modo de instalación de Hadoop 2.2.1 Instalación independiente 2.2.2 Instalación pseudodistribuida 2.2.3 Instalación distribuida 2.3 Cómo utilizar Hadoop 2.3. 2.3.2 Archivo de configuración de Hadoop 2.4 Resumen de este capítulo Capítulo 3 Inicio rápido con MapReduce 3.1 Instancia de WordCount Preparación del entorno de desarrollo 3.1.1 Creación de un proyecto Java con Eclipse 3.1.2 Importación. Archivo JAR de Hadoop 3.2 Implementación del código MapReduce 3.2.1 Escritura de la clase WordMapper 3.2.2 Escritura de la clase WordReducer 3.2.3 Escritura de la clase del controlador WordMain 3.3 Empaquetado, implementación y ejecución 3.3.2 Implementación y ejecución 3.3.3 Resultados de las pruebas 3.4 Resumen de este capítulo Capítulo 4 Capítulo Explicación detallada del sistema de archivos distribuido Hadoop 4.1 Comprensión de las características de HDFS 4.1 Interfaz unificada 4.1.3 Servicio web HDFS 4.2 Arquitectura HDFS 4.2.1 Bastidor 4.2.2 Bloque 4.2.3 Nodo de metadatos 4.2.4 Nodo de datos 4.2.5 Metadatos auxiliares nodo 4.2.6 Espacio de nombres 4.2.7 Replicación de datos 4.2.8 Principio de copia de seguridad en bloque 4 Conciencia del rack 4.3 Mecanismo RPC de Hadoop 4.3.1 Proceso de implementación de RPC 4.3.2 Modelo de entidad RPC 4.3.3 Lectura de archivos 44.3 ¿Por qué existe el mecanismo HA? 4.5 Mecanismo de federación de HDFS 4.5.1 Limitaciones de la arquitectura HDFS de un único NameNode 4.5.2 Por qué existe un mecanismo de federación 4.5.3 Arquitectura de federación 4.5.4 Gestión de múltiples espacios de nombres 4.6 Acceso al sistema de archivos Hadoop 4.6.1 Modo de seguridad 4.6 2 Acceso Shell a HDFS 4.6. 3 Archivos de procesamiento de comandos HDFS 4.7 Interfaz JavaAPI 4.7.1 Datos de lectura de HadoopURL 44.8.4 Agregar nodos 4.8.5 Eliminar nodos 4.9 Gestión de permisos HDFS 4.9.1 Identidad del usuario 4.9.2 Principios de gestión de permisos 4.9. .4 Superusuario 4.9.5 Parámetros de configuración de permisos HDFS 4.10 Descripción general de este capítulo 5 Archivos Hadoop. I/O explica la estructura de datos de los archivos Hadoop 5.1.1 Almacenamiento SequenceFile 5.1.2 Almacenamiento MapFile 5.1.3 Convertir SequenceFile a MapFile 5.2 Integridad de datos HDFS 5.2.1 Corrección. Verificación 5.2.2 Programa de detección de bloques 5.3 Serialización de archivos 5.3.1 Requisitos de serialización para la comunicación entre procesos 5. 3 2 Serialización de archivos Hadoop 5.3.3 Interfaz grabable 5.3.4 Interfaz comparable grabable 5.3.5 Interfaz de escritura personalizable 5.3.6 secuencia .