Page 1 of 2
1 2

El Futuro llega en Bits Cuánticos: La Carrera por la Supremacía en la Computación

Por: Hayah García || Junio 2023 || Twitter: @hayah_garcia

 

En los últimos años, los desarrollos informáticos han dado un salto épico y superaron a los llamados supercomputadores que serán remplazados por equipos cuánticos pues permitirán resolver problemas complejos de manera más eficiente que las computadoras tradicionales basadas en la electrónica de estado sólido. En este artículo, se explora el funcionamiento de los computadores cuánticos, su arquitectura de procesadores, los usos que se les han dado, sus fabricantes y en qué países se encuentran. También se destaca la relación entre la computación cuántica y la inteligencia artificial, así como la diferencia entre QuBits y los Quarks.

Funcionamiento del Computador Cuántico

El funcionamiento de un computador cuántico se basa en la superposición y la entrelazación cuántica. Mientras que en una computadora clásica un bit puede existir en solo un estado sea un 0 o 1, en un computador cuántico, un qubit puede estar en una superposición de ambos estados de forma simultánea. Esto se debe a las propiedades de la mecánica cuántica, donde estas unidades pueden representar múltiples estados en un mismo momento.

La superposición es una propiedad fundamental de los sistemas cuánticos en la que un qubit puede estar en múltiples estados al mismo tiempo. Mientras que un bit clásico solo puede estar en un estado 0 o 1, un qubit puede representar una combinación lineal de ambos estados simultáneamente. Esta propiedad permite realizar cálculos en paralelo y explorar múltiples soluciones de manera eficiente.

A esto se une el entrelazamiento es una propiedad en la que dos o más qubits están correlacionados de manera intrincada, incluso cuando están separados en el espacio. Esto significa que el estado de un qubit está directamente relacionado con el estado de los demás qubits entrelazados, sin importar la distancia física entre ellos. El entrelazamiento es crucial para la comunicación y la transferencia de información en sistemas cuánticos.

Estas propiedades cuánticas, la superposición y el entrelazamiento, son la que les permiten a los computadores cuánticos realizar cálculos de manera simultánea y explorar múltiples soluciones en paralelo. En problemas complejos, esta capacidad cuántica puede llevar a un rendimiento exponencialmente mayor en comparación con los computadores clásicos, especialmente en aplicaciones específicas, como la búsqueda en bases de datos no ordenadas o la factorización de números grandes utilizados en la criptografía.

Sin embargo, es importante tener en cuenta que no todos los problemas se benefician de la computación cuántica, y existen desafíos significativos en el desarrollo de sistemas cuánticos estables y libres de errores. Además, la capacidad de los computadores cuánticos para superar a los computadores clásicos depende de la naturaleza específica del problema y del algoritmo utilizado.

 

Arquitectura de los Procesadores Cuánticos

La arquitectura de los procesadores cuánticos varía según la implementación. Algunos enfoques utilizan átomos o partículas subatómicas individuales como qubits, mientras que otros utilizan circuitos superconductores o puntos cuánticos. No se basan en transistores clásicos como los de los procesadores tradicionales, sino en componentes que operan a temperaturas extremadamente bajas para evitar la decoherencia, un fenómeno que perturba la información cuántica.

Usos de los Computadores Cuánticos

Los computadores cuánticos tienen el potencial de revolucionar numerosas áreas de la ciencia y la tecnología. Actualmente, se están investigando aplicaciones en criptografía, simulaciones moleculares, optimización, inteligencia artificial y descubrimiento de nuevos medicamentos. La capacidad de los computadores cuánticos para procesar grandes cantidades de información de manera simultánea podría impulsar avances significativos en campos que requieren cálculos muy complejos.

Elementos de la Mecánica Cuántica y el computador moderno

La mecánica cuántica, como teoría fundamental de la física, proporciona las bases teóricas y las propiedades fundamentales que han permitido el desarrollo de la computación cuántica. Otras de las propiedades clave de la mecánica cuántica que son relevantes para la computación cuántica son:

Principio de incertidumbre de Heisenberg: establece que existe una limitación fundamental en la precisión con la que se pueden conocer ciertas propiedades de una partícula cuántica, como su posición y momento lineal. Este principio tiene implicaciones en la medición y el procesamiento de información cuántica, ya que no se puede conocer con certeza el estado cuántico completo de un sistema sin alterarlo.

La interferencia cuántica: es un fenómeno en el que los resultados de un cálculo cuántico dependen de la interferencia constructiva o destructiva de las amplitudes de probabilidad asociadas con diferentes posibles estados cuánticos. Esto permite la manipulación y la optimización de las probabilidades de obtener ciertos resultados y es esencial para los algoritmos cuánticos, como el algoritmo de Grover y el algoritmo de Shor.

Estas propiedades de la mecánica cuántica han permitido el desarrollo de la computación cuántica al proporcionar una base teórica para la manipulación de información cuántica y realizar cálculos de manera diferente a la computación clásica.

Relación entre el Quarks y el Qubits?

Los quarks son partículas elementales que se consideran componentes fundamentales de la materia. Según el modelo estándar de la física de partículas, los quarks son partículas elementales, lo que significa que no se cree que estén compuestos por partículas más pequeñas. Estas que llevan una fracción de la carga eléctrica y se unen a través de la interacción fuerte para formar partículas compuestas llamadas hadrones. Los hadrones más familiares son los protones y los neutrones, que se encuentran en los núcleos de los átomos. Los protones están compuestos por dos quarks arriba (up) y un quark abajo (down), mientras que los neutrones están compuestos por un quark arriba y dos quarks abajo.

Es importante destacar que los quarks son partículas que se rigen por los principios de la mecánica cuántica, lo que significa que también exhiben fenómenos cuánticos, como la superposición y el entrelazamiento cuántico. Sin embargo, en el contexto de la computación cuántica, los quarks no están directamente relacionados aunque los términos «qubits» y «quarks» suenan similares.

En resumen, los quarks son partículas cuánticas elementales que se unen para formar hadrones, como los protones y los neutrones. Aunque comparten la base cuántica, los quarks y los qubits son conceptos distintos en diferentes ámbitos de estudio: la física de partículas y la computación cuántica, respectivamente.

Algunos Computadores Cuánticos

A continuación muestro una lista de los últimos desarrollos de computadoras cuánticos centrados en los Estados Unidos y Canadá, así como su potencia:

  1. D-Wave One (2007) ||Fabricante: D-Wave Systems || Ubicación: Canadá || Potencia (Qubits): 128 qubits

  1. IBM Q Experience (2016) || Fabricante: IBM || Ubicación: Estados Unidos || Potencia (Qubits): Varía según el dispositivo; hasta 65 qubits en 2021

  1. Rigetti Quantum Computer (2017) || Fabricante: Rigetti Computing || Ubicación: Estados Unidos || Potencia (Qubits): Hasta 32 qubits en 2021

  1. Google Quantum Computer (Sycamore) (2019) || Fabricante: Google (en colaboración con diversas instituciones académicas) || Ubicación: Estados Unidos || Potencia (Qubits): 54 qubits

  1. IonQ Quantum Computer (2020) || Fabricante: IonQ || Ubicación: Estados Unidos || Potencia (Qubits): Hasta 32 qubits en 2021

Es importante tener en cuenta que estas son solo algunas de las compañías y sistemas de computación cuántica existentes hasta septiembre de 2021. La tecnología de computación cuántica está en constante evolución, y se espera que nuevos desarrollos e innovaciones se produzcan con el tiempo.

Y los Computadores Cuánticos de  los países BRICS y Europa?

En Rusia, el Centro Nacional de Investigación en Tecnología Cuántica (CRTQ) está trabajando en el desarrollo de computadores cuánticos. Han anunciado planes para construir un computador cuántico con una arquitectura basada en trampas de iones y se espera que alcance alrededor de 100 qubits.

El gigante asiático, ha realizado avances significativos en la investigación y desarrollo de computadores cuánticos. La Academia China de Ciencias ha estado trabajando en proyectos de computación cuántica y ha logrado construir un computador cuántico con 66 qubits. Además, el gobierno chino ha establecido el Centro Nacional de Ciencia Cuántica en China para impulsar aún más la investigación y el desarrollo en este campo.

Origin Quantum (China) ya avisó que estaban creando un nuevo tipo de ordenador cuántico. Hubo mucho misterio alrededor de este y de lo poco que se sabía es que buscan lograr una versión para uso doméstico, logrando desarrollar el Wuyuan de Origin Quantum, el primer ordenador cuántico comercial de China con una potencia de 24 qubits.

En India, el Instituto Indio de Tecnología y el Instituto de Ciencias Matemáticas está involucrado en la investigación y el desarrollo de computadores cuánticos. Se están llevando a cabo proyectos y colaboraciones para construir sistemas cuánticos y se están explorando diferentes enfoques, como la computación cuántica basada en luz y la computación cuántica superconductora.

Así también en Europa, varios países y organizaciones están trabajando en el desarrollo de computadores cuánticos. La Unión Europea ha invertido en el proyecto Quantum Flagship, que tiene como objetivo acelerar la investigación y el desarrollo en tecnologías cuánticas, incluida la computación cuántica. Además, varios países europeos, como Alemania, Francia, los Países Bajos y el Reino Unido, tienen sus propios programas de investigación y desarrollo en computación cuántica. A esta carrera se suma España quienes ya están realizando inversiones y enlaces con IBM para desarrollar tecnología cuántica en un esfuerzo mancomunado con la Unión Europea.

Es de señalar que en cuanto a la potencia de los computadores cuánticos específicos en estos países, la información puede ser limitada y variada debido a la naturaleza de la competencia en la investigación y desarrollo de computadores cuánticos. Además, la potencia de un computador cuántico no se mide solo en términos de la cantidad de qubits, sino también en otros factores como la estabilidad y la capacidad de corrección de errores. Por lo tanto, no puedo proporcionar información específica sobre la potencia exacta de los computadores cuánticos en estos países.

Qué empresas lideran la computación cuántica?

Hasta ahora IBM es quien lidera el mercado de desarrollo de computadores, sin embargo otros gigantes del software y la electrónica como Microsoft (creo una interfaz gráfica para dar órdenes al computador cuántico llamado LIQUi|>), Amazon (brinda a sus usuarios experiencia práctica con qubits y circuitos cuánticos para ser simulados en computadores cuánticos reales), Alibaba (BABA), Tencent (TCEHY), Nokia (NOK), Airbus, HP (HPQ), AT&T (T) Toshiba, Mitsubishi, SK Telecom, Thor, Lockheed Martin, y empresas como Righetti, Biogen, Volkswagen y Amgen están investigando y desarrollando diversos programas para las computadoras cuánticas, para su uso particular como comercial.

Computación Cuántica e Inteligencia Artificial

La relación entre la computación cuántica y la inteligencia artificial es prometedora. Los computadores cuánticos podrían acelerar el procesamiento de algoritmos de aprendizaje automático y optimización, lo que podría conducir a avances significativos en la inteligencia artificial regenerativa. Algunos algoritmos de IA, como el algoritmo de Grover y el algoritmo de búsqueda cuántica, aprovechan las propiedades cuánticas para mejorar la eficiencia y la velocidad de cálculo en comparación con los métodos clásicos al permitir  realizar cálculos en paralelo y explorar múltiples soluciones simultáneamente, lo que podría conducir a mejoras en el reconocimiento de patrones, la toma de decisiones y la generación de modelos predictivos más precisos.

Próximos desarrollos de microprocesadores cuánticos

Al momento de escribir este artículo IBM ya le había puesto fecha a los desarrollos de sus procesadores cuánticos presentando a finales noviembre de 2002 Osprey con 433 qubits, para finales de 2023 presentaría Condor un chip cuántico de 1.121 cúbits. Ya para 2024 llegaría Flamingo con al menos 1.386 qubits; y en 2025 Kookaburra, con no menos de 4.158 qubits.

Intel por su parte se une a la carrera y acaba de lanzar su primer procesador cuántico bautizado como Tunnel Falls, el cual se caracteriza por estar basado en qubits de silicio y con una potencia de apenas 12 qubits, casi mil veces menos que el próximo chip Flamingo de IBM. Esta tecnología le exigirá a Intel en mejorar sus procesos pues los qubits de silicio se presentan como pequeños puntos cuánticos que atrapan electrones individuales para almacenar información.

Una mirada al futuro cuántico

Es difícil predecir con certeza los futuros desarrollos e innovaciones en el campo de los computadores cuánticos, ya que la investigación y el avance tecnológico están en curso. Sin embargo, se espera que haya avances significativos en varias áreas. A continuación, se presentan algunas posibles áreas de desarrollo e innovación en computación cuántica:

  1. Aumento en la cantidad de qubits: Los investigadores están trabajando para aumentar el número de qubits en los computadores cuánticos, lo que permitiría abordar problemas más complejos y realizar cálculos más sofisticados.

  1. Mejora en la estabilidad y calidad de los qubits: Se están realizando esfuerzos para mejorar la estabilidad y la coherencia de los qubits, reduciendo los errores y aumentando la precisión de los cálculos cuánticos.

  1. Desarrollo de algoritmos y aplicaciones cuánticas más avanzadas: A medida que se comprenden mejor los principios y las capacidades de la computación cuántica, se espera que se desarrollen algoritmos y aplicaciones más sofisticados que aprovechen plenamente el potencial de los computadores cuánticos.

  1. Mejora en la corrección de errores cuánticos: Los errores cuánticos son una de las principales barreras para la construcción de computadores cuánticos más potentes. Se están investigando y desarrollando técnicas de corrección de errores cuánticos para mitigar este desafío y mejorar la confiabilidad y precisión de los cálculos cuánticos.

  1. Investigación en nuevas plataformas de qubits: Además de las tecnologías de qubits existentes, como los qubits superconductores o los qubits de iones atrapados, se están investigando y desarrollando nuevas plataformas de qubits, como los qubits basados en topología o los qubits de estado sólido, que podrían ofrecer beneficios en términos de escalabilidad y control.

Al cierre

La computación cuántica representa un emocionante campo de investigación y desarrollo con el potencial de revolucionar la forma en que abordamos los problemas complejos en ciencia y tecnología. A través de la utilización de qubits y la explotación de los principios de la física cuántica, los computadores cuánticos nos permiten explorar soluciones más rápidas y eficientes para problemas que actualmente están más allá del alcance de las computadoras clásicas.

La intersección entre la computación cuántica y la inteligencia artificial es particularmente emocionante, ya que podría abrir nuevas puertas hacia el desarrollo de algoritmos más avanzados y eficientes, así como impulsar el campo de la IA hacia otros horizontes.

En conclusión, la computación cuántica está en constante evolución y su potencial es aún incalculable. A medida que los investigadores y científicos continúan explorando y desarrollando nuevas tecnologías cuánticas, se espera que la integración de la computación cuántica y la inteligencia artificial genere avances significativos en una amplia gama de campos científicos y tecnológicos.

 

Fuente: El Autor escribe para el Portal Otras Voces en Educación

Comparte este contenido:

Organizaciones Virtuales: un flashback para los emprendedores de hoy

Por: Hayah García / hayahgarcia@gmail.com

Profesor Agregado / UPTOS Clodosbaldo Russian / Venezuela

28/05/2021

 

Con el paso de los años las organizaciones han atravesado procesos de metamorfosis dada la dinámica mundial producto de los cambios sociales, económicos, políticos y los gigantes avances tecnológicos de la mano modelo globalizador que en cierta forma ha servido fuerza de empuje para acelerar su transformación y adaptación a las nuevas situaciones más allá de los modelos administrativos tradicionales y donde cada organización para desarrollarse, adaptarse, subsistir y erigirse hacia nuevos rumbos debe aprovechar las oportunidades que brindan los nuevos avances tecnológicos.

 

Si los notables Taylor y Farol vieran una estructura descentralizada o en forma de trébol seria como poner boca abajo la era industrial, una época donde se concentraba toda la fuerza laboral en un mismo espacio, las tareas eran bien específicas y la comunicación dentro de la estructura organizativa era solo supervisoria. Con el paso del tiempo y la aparición de las tecnologías de las Comunicación e Información (TIC) se han acortado distancias entre ciudades, países y continentes, hoy podemos afirmar también entre planetas. Esto se ha logrado en gran parte con la aparición de la Word Wide Web (www) y la telaraña comunicacional conocida como Internet, que no es otra cosa que la conexión física y espacial de millones de computadores alrededor del globo terrestre, capaz no solo de transmitir texto, sino también señales de audio, imágenes y video, codificadas en forma binaria y que viajan a altas velocidades de un lugar a otro sin barreras de tiempo, solo las que el medio de transmisión y conexión les ponga.

 

Las organizaciones luego de la aparición de las computadoras en la década del 70 vienen experimentando la informatización como una forma de llevar sus sistemas administrativos y reducir costos en sus procesos de manufactura continua. Ahora agregan entre sus activos más infraestructura informática con el firme propósito de tener comunicación bi-direccional en todas las instancias organizativas, operativas, ventas y con sus clientes finales. Este circuito, empresa – computador – red – internet – cliente se ha convertido en la columna vertebral de la organización del siglo XXI y de la era llamada digital, comprometiéndolas a crear nuevos departamentos que se encarguen del manejo de las redes informáticas y comunicacionales que son las que permiten mantener vivas a las organizaciones tal cual lo hacen las dendritas dentro del cuerpo humano.

 

Todo este constructo tecnológico ha permitido un cambio de paradigma en las organizaciones, en la administración, en las estructuras organizacionales, la propia gerencia, el marketing, los negocios y hasta en el liderazgo. La visión tradicional del centralismo de las estructuras de la empresa fue influenciada por las necesidades infinitas y apresuradas de países con alto crecimiento tecnológico como China, India, Japón, Rusia, Corea y Alemania, que demandan productos y servicios a gran escala las 24 horas del día y los 365 días del año, creando las condiciones para realizar nuevos negocios fuera de sus fronteras demandado un comercio indetenible entre países y continentes.

 

Dentro del espectro de casos de las Organizaciones Virtuales vemos al Gigante Azul (Microsoft Corporation), Google, Apple, RedHat y otras tantas del ramo tecnológico quienes hace más de dos década se aprovechan de la capacidad de los mejores del mundo partiendo de la premisa: “mientras unos duermen, otros trabajan” refiriéndose a la actividades de desarrollo de hardware y software, valiéndose de redes colaborativas intercontinentales, muy bien organizadas, supervisadas, flexibles y coordinadas por programas diseñados para llevar los flujos de trabajo. Estas empresas de alto calado han logrado desde sus oficinas en los Estados Unidos coordinar a cientos de programadores que trabajan virtualmente en China o la India quienes al terminar su actividad diaria estas son retomadas por otros programadores en otros países donde ya es de día. Es una actividad indetenible, sin fronteras e ilimitada tanto en tiempo como espacio que ahora es aprovechado por el comercio online y las llamas redes sociales.

 

La expresión Corporación Virtual u Organización Virtual (O.V.) fue planteada por primera vez en 1992 por Davidow y Malone quienes querían significar aquellas “empresas que pueden proporcionar mercancías o servicios individualizados, si es necesario en número grande, de forma rápida y económica” (Kreber, 2001). Así también, Bueno (1986) había conceptualizado a las empresas virtuales como “una forma organizativa muy abierta, flexible, ligera o estilizada que plantea la idea de que es un modelo evolucionado de la estructura trébol que pretende potenciar las relaciones contractuales y la cooperación con otras organizaciones creando anillos o redes derivados de las hojas de la subcontratación y el trabajo flexible”. Y es aquí con esta visión de donde se desprende la idea original de las empresas virtuales pues como señala Gutiérrez (2016) “la organización trébol es una estructura organizacional, que podemos esquematizar con la forma de un trébol, y en la que podemos identificar un núcleo central, conocido como Alta Dirección y tres tipos de fuerzas de trabajo que serán consideradas las hojas del trébol: el núcleo de la organización, las empresas subcontratadas y la fuerza de trabajo flexible”, conformando una estructura de trabajo colaborativa ágil, flexible, descentralizada y donde los costos se distribuyen entre cada una de las hojas del trébol.

 

No obstante, una definición más ajustada al tema que venimos desarrollando la tiene Criado (2000) quien considera a las OV como “una red temporal y reconfigurable de cooperación (horizontal y/o vertical) entre organizaciones legalmente independientes y geográficamente dispersas (con la posible participación de instituciones y/o personas), que persigue un servicio o producto sobre la base de una comprensión conjunta del negocio”, dibujando según su criterio una forma organizacional que trasciende a las ya conocidas y crea el basamento a las organizaciones distribuidas, asociativas y en redes de esta época digital.

 

En ese mismo sentido, Trávica (1997), citado por Martínez y De Pablos (2001) ofrece un punto de vista aún mas cercano sobre las OV, definiéndolas como “una colección temporal o permanente de individuos dispersos geográficamente, grupos o unidades organizativas que no pertenecen a la misma organización, u organizaciones que dependen de enlaces electrónicos para completar el proceso de producción”. Así también Gil Estallo (2010)  considera que “la organización virtual es aquella en la que las personas no coinciden regularmente en tiempo y espacio. Son organizaciones que intentan dar respuesta a un nuevo modo de organizarse. Empresas que pueden incluso no ser reales”, y modelos como estos ya hay muchos y con muy buenas experiencias que son estudios de casos en las universidades del mundo.

 

Una organización virtual, a mi modo de ver es aquella donde sus estructuras son descentralizadas en espacio y tiempo e interconectadas por redes de datos como una forma de aprovechar los recursos tecnológicos que buscan no solo minimizar los costos in situ sino aprovechar los grandes avances de la tecnología en lo comunicacional para posicionarse en los mercados mundiales. Al respecto los expertos en Sistemas de Información Laudon y Laudon (2004) refieren que “muchas empresas pueden operar como Organizaciones Virtuales donde el trabajo ya no está ligado a una ubicación geográfica. Las organizaciones virtuales utilizan redes para enlazar personas, activos e ideas”, lo que nos debe traer a la mente que una OV es simplemente un tipo de organización, por ejemplo, donde el jefe de proyectos esta en algún país y el equipo de programadores se encuentra disperso por el mundo conectados por las redes comunicacionales existentes. Es por ello que Griffin, Ebert y Treviño (2005) agregan que “la organización virtual tiene poca o ninguna estructura formal. Típicamente, tan solo tiene un puñado de empleados permanentes, muy poco personal, e instalaciones administrativas modestas. Esta existe únicamente en respuesta a sus propias necesidades”.

 

Ahora bien, las OV según Gil Estallo (2010) presentan una serie de características “cuya estrategia es emergente, utilizan sistemas de información descentralizados, el sistema de comunicación es total y en todos los sentidos, el mecanismo de coordinación es la comunicación, su parte fundamental son los sistemas de información, los parámetros de diseño son la descentralización, los sistemas de información y la comunicación, entre otras”, dejando bien en claro la importancia de la comunicación y los sistemas necesarios para llevar la información a cada punto del circuito organizacional en tiempo real.

 

Esta forma de organización moderna, para poder funcionar, requieren mecanismos de coordinación de la comunicación donde su parte predominante son los sistemas de información que a modo de red neurálgica recorren la organización y le aportan el control necesario para tomar las decisiones más en grupo que individuales. Por ello Laudon y Laudon (2004:8) enfatizan que los sistemas de información son un “conjunto de componentes interrelacionados que recolectan, procesan, almacenan y distribuyen información para apoyar la toma de decisiones y el control en una organización”, lo que es igual a un conjunto de programas que funcionan coordinadamente para recopilar y mostrar información en tiempo real.

 

Uno de los ejemplos más conocido de una OV es el de la empresa de calzados Puma. Ésta se encarga de la estrategia y la comercialización en la población Alemana de Herzogenaurach. Por otra parte, una pequeña red de empresas localizadas en Asia maneja la compra y la distribución de los materiales utilizados para hacer el calzado Puma, que distintas compañías ubicadas en China, Taiwán, Indonesia y Corea manufacturan finalmente el calzado. Además cuentan con diversas redes de ventas y distribución que operan en África, Asía, Australia, América del Norte y América del Sur todas conectadas de manera virtual. Otro de los casos más estudiados es el de AMAZON, el cual es mucho más complejo por las vertientes que ha abierto a su paso y que la ha convertido en líder del mercado de ventas online del mundo.

 

Las Organizaciones Virtuales ofrecen una serie de ventajas y la primordial es que permiten a las empresas repartirse los costos. Esto por la descentralización de sus estructuras, donde cada sub componente es una empresa o persona natural que a su vez trabaja en forma colaborativa e interconectada con otras, por lo que también son llamadas grillas empresariales. No obstante, una desventaja de las entidades virtuales es que a medida que se subcontrata un trabajo se hace más difícil controlar la calidad del mismo, situación que se presenta cuando se trata de bienes masivos por lo que se necesitan enormes habilidades administrativas y comunicacionales para que las organizaciones independientes de la red funcionen de manera acoplada a las directrices de la organización matriz.

 

Otro aspecto a considerar lo trae Cuchillac (2017) quien señala que las OV “requieren directivos con un perfil de liderazgo orientado a la virtualización. Esto debido a que un teletrabajador puede realizar otras funciones dentro de su período laboral y en el caso de la tercerización (outsourcing) las empresas o personas contratadas tienen más de un cliente a quien atender”, siendo inadmisible la burocracia y la inflexibilidad, pues “es más bien un caos controlado, algo un tanto caórdico”, entendiendo por caórdica “al tipo de organización que se auto regula, se reordena de una forma compleja no lineal que permiten coexistir el orden y el caos, logrando a su vez la cooperación y la competencia, y la continuidad y la creatividad de sus miembros”.

 

Autores como Araya y Criado (2004) concluyen en su artículo Organizaciones virtuales de la integración a la desintegración integrada que “sin duda las nuevas formas organizativas presentan una serie de ventajas para enfrentar el medio globalizado actual, lo importante es que las organizaciones tengan la confianza suficiente para decidir en el momento adecuado cuando aventurarse en esta nueva etapa, considerando obviamente su realidad particular”, sin embargo hoy día están más que dadas las condiciones para virtualizar cualquier organización.

 

Finalmente, quiero advertir que la virtualidad se ha convertido en una señal del progreso y de los cambios que se avecinan, por lo que las empresas y sus gerentes deben ir adoptando las nuevas tecnologías sin miedo e ir flexibilizando sus estructuras para evitar ser arropados por una sociedad exigente y en auge, como lo es la sociedad de la información. La OV no es un término anticuado sino que ha evolucionado con el tiempo.

 

Referencias:

 

Araya y Criado (2004). Organizaciones virtuales de la integración a la desintegración integrada. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=3996700

 

Bueno, E. (2007). Organización de empresas: estructura, procesos y modelos. 2ªedic. Madrid: Pirámide.

 

Criado, M. (2000): Caracterización de modelos de cooperación entre organizaciones como base para la obtención de estructuras flexibles y competitivas. Base de Datos Documental GIP-GIO, Universidad Politécnica de Madrid, España.

 

Cuchillac, V. (2017). Descripción de la Organización Virtual. Disponible en: https://www.lamjol.info/index.php/RyR/article/view/3551

 

Gil Estallo, M. (2010). Mintzberg: La estructuración de las organizaciones. Disponible en: https://webfacil.tinet.cat/usuaris/ebrull/CdG-Mintzberg_20100606182617.pdf

 

Griffin,  R., Eber, R. y Treviño, E. (2005). Negocios.

 

Gutiérrez, P. (2016). Nuevas tendencias y aplicaciones en organización y dirección. Amazon. Disponible en: http://tauja.ujaen.es/jspui/bitstream/10953.1/7727/1/TFG%20-%20GUTIERREZ%20ZAPATA%2C%20PABLO.pdf

 

Kreber, S. (2001). Empresas virtuales y formación profesional. Disponible en: https://dialnet.unirioja.es/descarga/articulo/262163.pdf

 

Laudon, K. y Laudon, J. (2004). Sistemas de Información Gerencial.

 

Martínez, M. y De Pablos, C. (2001): El diseño de procesos virtuales: un modelo de diagnóstico aplicado al sector asegurador español. Revista Alta Dirección, año 2001, Nº 219 (septiembre-octubre).

 

Fuente: El Autor escribe para el Portal Otras Voces en Educación

Comparte este contenido:

Semillero de la era digital: El Transistor y la microelectrónica de estado sólido (parte I)

Hayah García

Profesor Agregado D.E.

Universidad “Clodosbaldo Russian”

Cumaná – Sucre – Venezuela

Emailhayahgarcia@gmail.com

Twitter: hayah_garcia

A partir de 1947 la electrónica inicia el tránsito a la frontera del estado sólido, dejando atrás años de uso de los llamados tubos al vacío. Es así como científicos de los Laboratorios Bell (actual AT&T) en medio de investigaciones sobre el uso de nuevos materiales semiconductores descubren cierta propiedad en minerales como el silicio (Si) de transportar pequeñas cargas eléctricas dado los enlaces covalentes que posee dicho material.

La electrónica es  una rama de la física dedicada al estudio del flujo de los electrones y de partículas cargadas eléctricamente. El electrón en su concepto más sencillo es una partícula atómica que posee carga negativa y forman la corteza externa de los átomos, los cuales interactúan entre si para mantener las uniones moleculares.

Los investigadores utilizando la técnica del dopaje, que consistente en añadir impurezas de otros minerales de un grupo mayor o menor al del semiconductor a dopar, lograron crear uniones del tipo N (negativas) y P (positivas) observando en principio la existencia de un flujo eléctrico, efecto que posteriormente los llevaría a crear el primer Transistor, el cual pasaría a sustituir los tubos al vacío que hasta ese momento eran los componentes electrónicos utilizados en la construcción de radios, televisores, equipos de sonido y hasta computadoras. Estos componentes eran como una especia de bombillos incandescentes, con filamentos encapsulados en pequeños envases de vidrio con gases, que requerían de grandes voltajes para su funcionamiento y generaban altas temperaturas por lo que su tiempo de vida era muy reducido. Estas desventajas de los tubos al vacío fue el motivo principal que impulsó a los científicos para crear sustitutos más confiables, de menor costo y consumo eléctrico.

La invención del transistor (1947) estuvo marcada por varios hechos desde el equipo de investigadores del Laboratorio Bell donde estuvieron John Bardeen, Walter Houser Brattain y William Bradford Shockley y de forma aislada Julius Lilienfeld quien patentó un transistor previo a los diseñados por el trinomio de la Bell, quienes en 1956 fueron merecedores del Premio Nobel de Física por sus investigaciones sobre los semiconductores y por sus descubrimientos acerca del efecto transistor.

El transistor bipolar es un componente electrónico construido a base de Silicio. Posee tres contactos (denominados Emisor, Base y Colector) incrustados entre las uniones semiconductoras P-N-P o N-P-N. La denominación de bipolar se debe a que la conducción entre uniones tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos) entre ellas, lo que permite aumentar la corriente y bajar el voltaje, según sea la configuración que se le dé al transistor entre sus terminales.

El uso principal del transistor es como amplificador, pero también funciona como interruptor y es bajo esta forma que se  recrean los unos y los ceros con los que trabaja la computadora, es decir dejando o no pasar la corriente eléctrica en un determinado momento, desde el punto de vista electrónico se trata de pasar de la región de corte del transistor a su región activa. Esta propiedad del transistor abrió las puertas a la electrónica digital que trabaja con dos estados lógicos: 1 y 0.

Con la ayuda de la lógica binaria, el álgebra de Boole (1854), los mapas de  Karnaugh (1953) y la microelectrónica se desarrollan los primeros circuitos lógicos en estado sólido: compuertas AND, OR, NOT, NOR NAND, XOR, que constituyen la base de las máquinas electrónicas sumadoras que dan vida a las calculadoras. Gracias a los avances que ya se tenía con las computadoras con tubos  al vacío (la ENIAC fue lanzada en 1946 y tenía 17468 tubos de vacío y podía resolver 5000 sumas o 300 multiplicaciones en 1 segundo) y la aparición de otros componentes electrónicos integrados fue sumamente rápido el desarrollo de nuevos y cada vez más pequeños equipos electrónicos entre la década del 60 y 70.

Es parte de la historia que luego de patentar el transistor Shockley funda su propia empresa “Shockley Semiconductores”, siendo la precursora del Valle de Silicio en los Estados Unidos, empresa que tuvo poco éxito en el desarrollo con semiconductores. Posteriormente, Robert Noyce y Gordon Moore tras su salida del equipo de científicos de Shockley Semiconductores crean en 1957 una de las empresas de semiconductoras más icónicas de la época: Fairchild Semiconductor, la cual años más tarde lanzaría casi simultánea con Texas Instruments (otra de las grandes empresas del mundo de la electrónica) al mercado el primer circuito integrado gracias a los avances  de la microelectrónica, iniciando así la carrera por la miniaturización de un conjunto de componentes electrónicos dentro de una pequeña oblea de silicio, lo que abrió el paso al surgimiento de los microprocesadores, corazón de las Computadoras Personales (Personal Computer o PC en inglés). Lo curioso es que la dupla Noyce y Moore en 1968 serían los fundadores de Intel, hoy empresa líder en la fabricación de microchips y microprocesadores.

Los avances sucesivos a la invención del transistor y de la electrónica de estado sólido ha sido impresionante (tubos al vacío –> transistor –> micro chip –> micro procesadores) al punto que podemos tener hoy día computadoras portátiles y teléfonos capaces de realizar llamadas y de emular no solo una computadora, sino que además integran un conjunto de otros dispositivos electrónicos que nos han llevado a establecer la denominada frontera digital, donde hardware y software se unen en un pequeño dispositivo para brindar múltiples opciones de comunicación en varias dimensiones gracias a la conectividad en tiempo real y las redes comunicacionales que se han establecido alrededor del mundo.

Fuente: El Autor escribe para el Portal Otras Voces en Educación

Comparte este contenido:

Semillero de la era digital: El Transistor y la microelectrónica de estado sólido

A partir del 1947 la electrónica inicia el tránsito a la frontera del estado sólido, dejando atrás años de uso de los llamados tubos al vacío. Es así como científicos de los Laboratorios Bell (actual AT&T) en medio de investigaciones sobre el uso de nuevos materiales semiconductores descubren cierta propiedad en minerales como el silicio (Si) de transportar pequeñas cargas eléctricas dado los enlaces covalentes que posee dicho material.

La electrónica es  una rama de la física dedicada al estudio del flujo de los electrones y de partículas cargadas eléctricamente. El electrón en su concepto más sencillo es una partícula atómica que posee carga negativa y forman la corteza externa del átomo, los cuales interactúan entre si para mantener las uniones moleculares.

Los investigadores utilizando la técnica del dopaje, que consistente en añadir impurezas de otros minerales de un grupo mayor o menor al del semiconductor a dopar, lograron crear uniones del tipo N (negativas) y P (positivas) observando en principio la existencia de un flujo eléctrico, efecto que posteriormente los llevaría a crear el primer Transistor, el cual pasaría a sustituir los tubos al vacío que hasta ese momento eran los componentes electrónicos utilizados en la construcción de radios, televisores y computadoras. Estos componentes eran como una especia de bombillos incandescentes, con filamentos encapsulados en pequeños envases de vidrio con gases, que requerían de grandes voltajes para su funcionamiento y generaban altas temperaturas y su tiempo de vida era muy reducido.

La invención del transistor (1947) estuvo marcada por varios hechos desde un mismo equipo de investigadores del Laboratorio Bell donde estuvieron John Bardeen, Walter Houser Brattain y William Bradford Shockley y de forma aislada Julius Lilienfeld quien patentó un transistor previo a los diseñados por el trinomio de la Bell, quienes en 1956 se hicieron merecedores del Premio Nobel de Física por sus investigaciones sobre los semiconductores y por sus descubrimientos acerca del efecto transistor.

Es parte de la historia que luego de patentar el transistor Shockley funda su propia empresa Shockley Semiconductores, siendo la precursora del Valle de Silicio en los Estados Unidos, que tuvo poco éxito en el desarrollo de los semiconductores. Posteriormente Robert Noyce y Gordon Moore tras su salida del equipo de científicos de Shockley Semiconductores crean en 1957 una de las empresas de semiconductoras más icónicas de la época: Fairchild Semiconductor, la cual años más tarde lanzaría casi simultánea con Texas Instruments (otra poderosa empresa del mundo de la electrónica) al mercado el primer circuito integrado gracias a los avances  de la microelectrónica, iniciando así la carrera por la miniaturización de un conjunto de componentes electrónicos dentro de una pequeña oblea de silicio, lo que abrió el paso al surgimiento de los microprocesadores, corazón de las Computadoras Personales (Personal Computer o PC en inglés). Lo curioso es que la dupla Noyce y Moore en 1968 serían los fundadores de Intel, hoy empresa líder en la fabricación de microchips y microprocesadores.

El transistor bipolar es un componente electrónico construido a base de Silicio que posee tres contactos (denominados Emisor, Base y Colector) incrustados entre las uniones semiconductoras P-N-P o N-P-N. La denominación de bipolar se debe a que la conducción entre uniones tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos) entre ellas, lo que permite aumentar la corriente y bajar el voltaje, según sea la configuración que se le dé al transistor entre sus terminales.

El uso principal del transistor es como amplificador, pero también funciona como interruptor y es bajo esta forma que se  recrean los unos y los ceros con los que trabaja la computadora, es decir dejando o no pasar la corriente eléctrica en un determinado momento (desde el punto de vista electrónico se trata de pasar de la región de corte del transistor a su región activa activa). Esta propiedad del transistor abrió las puertas  a la electrónica digital que trabaja con dos estados lógicos: 1 y 0.

Con la ayuda de la lógica binaria, el álgebra de Boole (1854), los mapas de  Karnaugh (1953) y la microelectrónica se desarrollan los primeros circuitos lógicos en estado sólido: compuertas AND, OR, NOT, NOR NAND, XOR, que constituyen la base de las máquinas electrónicas sumadoras que dan vida a las calculadoras. Gracias a los avances que ya se tenía con las computadoras con tubos  al vacío (la ENIAC fue lanzada en 1946 y tenía 17468 tubos de vacío y podía resolver 5000 sumas o 300 multiplicaciones en 1 segundo) y la aparición de otros componentes electrónicos integrados fue sumamente rápido el desarrollo de nuevos y cada vez más pequeños equipos electrónicos entre la década del 60 y 70.

En 1971 Intel sacaría el primer procesador al que llamó 4004, creado con 2.300 transistores en una capsula dual in-line (DIP o DIL) con apenas 16 pines, cuya separación estándar entre terminales es de 0,1 pulgadas (2,54 mm). Este procesador junto a otros tres Microchip forman parte de la llamada familia 4000, que fueron  parte de un contrato entre la empresa japonesa Business Computer Corporation (Busicom) e Intel para fabricar un conjunto de chips para el corazón de sus nuevas calculadoras aritmética de bajo costo, la Unicom 141P una calculadora de mesa y otra de bolsillo a la que llamaron Busicom 141-PF. La familia de circuitos integrados (IC) 4000 estaba conformada por el 4001 que era una memoria ROM de dos kilobits con salida de cuatro bits de datos; el 4002 era una memoria RAM de 320 bits con el puerto de entrada/salida (bus de datos) de cuatro bits; el 4003 que era un registro de desplazamiento de 10 bits con entrada serie y salida paralelo; y el 4004 que era la CPU de 4 bits. Con estos componentes y luego de un arduo trabajo de los científicos e ingenieros de Intel, tanto la Unicom 141P como la Busicom 141-PF serían las primeras calculadoras con microprocesador incorporado.

De allí el despegue tecnológico de la electrónica de estado sólido ha sido impresionante (tubos al vacío –> transistor –> micro chip –> micro procesadores) al punto que podemos tener hoy día computadoras portátiles y ahora teléfonos capaces de realizar llamadas y de emular no solo una computadora sino que además integran un conjunto de otros dispositivos electrónicos que nos han llevado a establecer la denominada frontera digital, donde hardware y software se unen en un pequeño dispositivo para brindar múltiples opciones de comunicación en varias dimensiones gracias a la conectividad en tiempo real y las redes comunicacionales que se han establecido alrededor del mundo.

Hayah García

Profesor Agregado D.E.

Universidad “Clodosbaldo Russian”

Cumaná – Sucre – Venezuela

Emailhayahgarcia@gmail.com

Twitter: hayah_garcia

 

Fuente: El autor escribe para el Portal Otras Voces en Educación

 

Comparte este contenido:

Los procesos gerenciales de las pequeñas organizaciones, innovación y TIC

A modo de introducción

Las economías modernas, el mundo comercial y los gobiernos albergan todo un tejido productivo compuesto por empresas e instituciones que se enfrentan a un mundo globalizado, dinámico y en constante convulsión política donde los gerentes adoptan y aplican procesos emergentes buscando en todo momento cumplir con los propósitos organizacionales e institucionales trazadas por la alta gerencia o con los planes del gobierno de turno. Dentro de la grilla productiva también se encuentran las Microempresas, los Emprendimientos, las Pequeñas y Medianas Empresas (PYME) y las Asociaciones Cooperativas, las cuales se diferencian unas de otras por tener un número mayor o menor de trabajadores y en el caso de las cooperativas por su concepción filosófica de distribución del trabajo, organizaciones estas que en su conjunto son minúsculas ante los grandes empresas y los transnacionales que poseen no solo más personal, sino además, recursos económicos superiores que les permiten mercadear sus productos o servicios dentro y fuera de sus regiones. Estas micro, pequeñas y medianas organizaciones se encuentran insertas en cada uno de los sectores productivos, llámese tecnológico, turístico, alimentación, salud, construcción, entre otras tantos, con procesos gerenciales propios y en muchos casos ya en desuso.

 

En las entrañas de este ecosistema hay organizaciones más sensibles que otras desde el punto de vista tecnológico, llamémoslas empresas ensambladoras o de servicios tecnológicos, las cuales en principio requieren mantener una dinámica mayor que las de cualquier otro sector, dado el hecho que sus productos son altamente impactados por la obsolescencia tecnológica por lo que requieren de procesos gerenciales propios, en constante innovación, y donde el uso de la tecnología es el pan nuestro de cada día.

 

El proceso gerencial

Los procesos gerenciales engloban las misiones de las distintas áreas de la organización en términos de los servicios que prestan y son los unificadores y constructores de la cadena que a la final permite el cumplimiento de las metas, de allí la importancia de diseñar procesos ágiles, flexibles, bien conectados y que sean cónsonos con las necesidades y realidades del entorno. En ese sentido, Oñoro, Oñoro y Niebles (2006) consideran que “los procesos gerenciales incluyen las acciones que los gerentes deben realizar para dar soporte a los demás procesos de negocio”, es decir, los procesos gerenciales llevan la batuta dentro de la organización, son los que guían el rumbo que tomará la empresa o la institución en cada momento.

 

Desde hace algún tiempo se viene debatiendo el hecho de sí la gerencia es un arte, y afirmo que sí lo es, dado que el gerente debe tener un conjunto de habilidades que interconectadas le permiten desde su cosmovisión visualizar, construir y sostener procesos de diversas envergaduras en aras de sortear cada situación y mantener el rumbo de la organización con cada nueva decisión que tome. En el caso de las micro, pequeñas y medianas organizaciones es menos complicado el proceso gerencial dado el reducido número de trabajadores, áreas y los procesos son menos engorrosos y mucho más llevaderos, sin embargo, enfrentan situaciones complejas principalmente debido a la baja capacidad financiera que poseen. Los autores antes citados señalan que los procesos gerenciales son “procesos de información y decisión”, puesto que para tomar decisiones el gerente requiere tener información objetiva, suficiente y en tiempo real, que le permita decidir en lo personal o bajo consulta al equipo de trabajo que hacer ante cualquier eventualidad.

 

En las micro, pequeñas y medianas organizaciones el elemento decisorio lo maneja directamente el propio dueño, quien mantiene bajo su control las compras de insumos, ventas de productos, los procesos de producción, plantilla de trabajadores, entre otros, cualidad que le permite tomar decisiones con mucha más rapidez. No obstante, y desde el punto de vista de la información estas formas organizativas en un alto porcentaje carecen de sistemas de información, sistemas de gestión administrativa, sistemas de inventario digitales, que les permitan mantener la información organizada y sistematizada para consultarla en un determinado momento. Esta debilidad informática las hace muy vulnerables desde el punto de vista no solo de la competencia con otras organizaciones del mismo tamaño, sino con respecto a las grandes empresas, generándoles serias desventajas al momento de expandirse en los mercados nacionales y los globalizados para los que la organización requiere tener procesos agiles, flexibles, y en constante innovación.

 

Esta realidad la sustentan Oñoro, Oñoro y Niebles (ob. cit.) quienes apuntan que “la subutilización de la tecnología en las empresa públicas y privadas delata una ignorancia sobre el potencial de la informática”, pues es innegable en este siglo que la informática, la internet y ahora las redes sociales (RRSS) son parte de la columna vertebral de cualquier organización, sea cual sea su tamaño y puedo afirmar que quien no la utilice, simplemente no está en nada, mucho más aún con el potencial que brindan las redes sociales  para el mercadeo de productos y servicios.

 

Otros autores como Prieto y Martínez (2004) citan a Meyer y Boone (1990), quienes afirman que “los sistemas de información juegan un papel primordial en los procesos de control y toma de decisiones en las organizaciones, y por tanto representan herramientas de suma importancia en los procesos gerenciales”, reflexión respaldada por muchos expertos en la materia ya que como hemos dicho anteriormente el uso de las TIC le permiten al gerente manejar información de manera casi instantánea para asumir la toma de decisiones con mayor rapidez y precisión, proporcionándole adicionalmente colocar a la organización en un escalón superior ante sus competidores.

 

Prieto y Martínez (2004) exponen en su libro que “la mala o no utilización de los sistemas de información genera una baja productividad”, situación que es del todo cierta y que se convirte en la base de lo que denominan ignorancia gerencial, por ende, en las micro y pequeñas organizaciones para poder acompañar los procesos de competitividad, sostenibilidad en el tiempo e internacionalización, estas deben considerar muy en serio la adecuación tecnológica y el uso de sistemas informáticos si verdaderamente esperan crecer como organización, tal como lo manifiestan estos autores cuando dicen que “las empresas se hacen más competitivas en la medida que logran desplazar a otras en los mercados con procesos innovativos que incluyen nuevas tecnologías y nuevas maneras de hacer las cosas”, colocando sobre la mesa no solo el tema del uso de las TIC sino otra categoría muy importante como lo es la innovación, que a su vez no es un elemento aislado de la gerencia, ya que la innovación está presente en cada proceso, producto o servicio o toma de decisiones, y es lo que les permitirá a las MPYME mantenerse a flote en los mercados como lo sustenta Cohen (2000), citado por Prieto y Martínez (2004), quien destaca que “frente a los desafíos de la apertura económica de los mercados y la globalización, la innovación tecnológica es la medida clave del éxito de las empresas en términos de excelencia, productividad, ganancias y crecimiento, para asegurar ventajas competitivas en los mercados”.

 

Las ideas expuestas conllevan a considerar, en el caso de las MPYME, que estas deben incorporar en sus procesos gerenciales el uso de las TIC tanto a nivel de procesos productivos, administrativos, informativos y de marketing digital a fin de explotar al máximo sus capacidades, sin descartar la actualización constante de sus gerentes en el uso de la tecnología, así como asumir la innovación como un proceso constante de mejora de sus procesos productivos, económicos y de interacción con proveedores y clientes.

 

Referencias:

Acosta, I., Pérez, M., y Hernández, J. (2009). Las PYMES en el desarrollo de la economía social. Factores de éxito. Subsector contratista del Municipio Lagunillas del Estado Zulia. [Documento en línea]. Disponible en:  http://www.redalyc.org/articulo.oa?id=78211195007 [Consulta: 2021, abril 11].

 

Fernández, G. (2008). Estrategias gerenciales en las PyMEs venezolanas en el escenario del desarrollo local. Una reflexión Teórica. [Documento en línea]. Disponible en: https://www.redalyc.org/pdf/904/90480209.pdf [Consulta: 2021, abril 11].

 

Garces, A. (2013). Estrategias gerenciales y cambios organizacionales. [Documento en línea]. Disponible en: http://tsugerenciaeducativa.blogspot.com/2013/07/estrategia-gerenciales.html [Consulta: 2021, abril 11].

 

Mejía, C. (2003). Los procesos gerenciales. [Documento en línea]. Disponible en: http://www.planning.com.co/bd/gerencia_general/Agosto2003.pdf [Consulta: 2021, abril 11].

 

Oñoro, R., Oñoro, E. y Niebles, E. (2006). Procesos desarrollados por Gerentes Sociales de ONG ́S exitosas en el ámbito de la gestión del tercer sector en Cartagena. Editorial Juan Carlos Martínez Coll.

 

Prieto, A., y Martínez, M. (2004). Sistemas de información en las organizaciones: Una alternativa para mejorar la productividad gerencial en las pequeñas y medianas empresas. [Documento en línea]. Disponible  https://www.redalyc.org/pdf/280/28010209.pdf [Consulta: 2021, abril 11].

Fuente: El autor escribe para el Portal Otras Voces en Educación

Comparte este contenido:

Liderazgo: Agente dinamizador del entramado organizacional

La dinámica organizacional le exige al gerente actualizar constantemente sus conocimientos e impregnarse de todas las herramientas disponibles con el fin de ampliar su cosmovisión y tener siempre elementos suficientes que le permitan dirigir a la organización  hacia la cumbre del éxito. Por ello vemos con mucha frecuencia propuestas que exaltan por ejemplo la necesidad de trabajar en equipo, mostrando estrategias y técnicas para conformar y sacar el máximo provecho a estos. No obstante, el gerente como líder, es quien orienta al grupo, independientemente del tipo de organización, sea pública o privada, de allí la necesidad de adentrarnos y explorar esta categoría denominada liderazgo la cual es vista como una virtud o capacidad.

Al respecto, el filósofo Aristóteles en su libro La Política, en el capítulo donde discurre sobre la esclavitud, nos dice: «desde la hora de su nacimiento algunos están designados para la sumisión y otros para mandar», pensamiento convertido en acción en esa época, pues a partir de esta premisa se seleccionaban desde muy niños los hombres que serían los líderes y quienes irían a otras tareas. Así Casares (2011) señala que: “históricamente el liderazgo era algo que pertenecía a los elegidos” lo cual conllevó a concebir el liderazgo “bajo un esquema estrictamente vertical, en términos de control, mando, obediencia y sumisión” (Casares, ob. cit), posición que cobró fuerza por mucho tiempo y es la que tradicionalmente se describe en los libros de administración de recursos humanos donde dibujan al líder como el típico griego con el látigo en la mano.

Antes incorporar nuevos elementos sobre el liderazgo y las teorías emergentes, es importante dejar claro su concepto, tomando como punto partida a Córcega y Subero (2009), investigadores que recogen la definición dada Montalván (1999) quien expone que “la etimología de la palabra es de origen inglés y su significado nos lleva a la idea de conducción, guía, influencia, autoridad”, así “Gilbert (1997) lo define como “el proceso de dirigir e influir en las actividades laborales de los miembros de un grupo”, otro como Martínez (2003) apunta que el liderazgo se entiende como “el proceso de influir en las actividades que realiza una persona o grupo para la consecución de una meta” y finalmente Montalván (1999) quien lo define como “una función que realizan algunas personas que ejercen autoridad sobre otras”.

En este grupo de definiciones afloran un conjunto de elementos que de alguna manera u otra muestran al liderazgo como la capacidad de guiar, conducir, dirigir, influenciar o de ejercer autoridad sobre alguien o sobre un grupo, dejando abierta la discusión si dicha capacidad es innata o es posible aprenderla y desarrollarla a posterior.

No obstante, Mejía (2007) incorpora otros elementos y señala que más allá de la definición típica de liderazgo los estudios se han centrado ahora no solo en las caracterización del liderazgo sino en lo que pudiera denominarse la relación propiamente dicha que conecta al líder con sus seguidores suscitando otras corrientes emergentes que versionan al liderazgo desde las relaciones bio emocionales, espirituales y hasta orientadas al servicio.

Estas visiones sobre el liderazgo aunadas a las actuales condiciones por las que atraviesan las organizaciones colocan a la gerencia en un plano que los lleva a profundizar cada día más en el tema, tal como lo propone Córcega y Subero (2009) al considerar que “es importante una propuesta de un liderazgo bajo enfoques emergentes transformacionales, emocionales, humanistas y carismáticos, que permitan trabajar también el aspecto afectivo, emocional, no perdiendo de vista la idea de cambio y de innovación”, como características primordiales en la personalidad del líder.

La proposición anterior, sumada a la de Angarita (2008), quien considera que,  el líder “no puede transferir sus habilidades a todos los contextos donde actúa con la misma efectividad, lo cual equivale a decir que debe conocer y dominar la situación donde está inmerso y principalmente ser reconocido como tal por sus seguidores”, coloca a la visión que se viene describiendo en una diatriba o más bien surge un nuevo reto para la gerencia como lo es elaborar una propuesta que conjugue lo emocional, lo humanista, lo afectivo, adaptable al tipo de organización donde se encuentre el liderente, y que lleve inmerso el reconocimiento que debe existir por parte del equipo o los seguidores de la investidura de líder. Desde esta visión se ratifica el llamado a que la gerencia, como ciencia, establezca teorías que bien puede el líder adoptar y adaptar al contexto organizacional donde se encuentre para mantener la sinergia organizacional.

De allí que, Vázquez et al (2014) introducen la visión del líder dinamizador o movilizador de personas o grupos, basándose en la capacidad que tienen los líderes de movilizar a sus seguidores, sus equipos de trabajos, de conducirlos al logro de los objetivos planteados, donde la motivación, el entusiasmo, la persuasión entre otros atributos son requeridos para guiar y direccionar al grupo. Estos autores citan a Lorenzo Delgado (2005:371) quien considera que el liderazgo tiene “función de dinamización de un grupo o de una organización para generar su propio crecimiento en función de una misión o proyecto compartido”.

Agregan que Gento y Ruiz (1996) coinciden que “el auténtico líder es aquel que es capaz de dinamizar personas o grupos de personas en una determinada dirección”; pero que para ello el líder, “debe contar en todo momento con la aceptación voluntaria de sus seguidores y con la participación libre y colaborativa en la definición y consecución de objetivos favorables al grupo”. Agrupan las experiencias de Goleman, Boyatzis y McKee (2002) para quienes “los grandes líderes son personas muy movilizadoras, personas que despiertan nuestro entusiasmo y alientan lo mejor que hay en nosotros”, centrando esta habilidad a partir del manejo de competencias socio y bio emocionales.

Estas visiones emergentes amplían enormemente las concepciones descritas sobre el liderazgo indistintamente del tipo de organización, justificando plenamente que se continúe profundizando los estudios de esta categoría, pues como se describió al inicio, el gerente requiere disponer a cada momento de nuevas concepciones donde apoyarse para mantener la dinamización de la organización y poder conducirla en la dirección más apropiada.

Referencias:

Angarita, Z. (2002). Teorías del liderazgo. [Documento en línea]. Disponible en: http://zulayangarita.blogspot.com/ [Consulta: 2021, marzo 21].

 

Casares, D. (2011). Líderes y educadores. México: Editorial Limusa.

 

Córcega, A. y Subero, L. (2009). Análisis de los factores que influyen en el clima organizacional del Liceo Bolivariano “Creación Cantarrana”. Cumaná-Estado Sucre. Año 2007-2008.

 

Mejía, S. (2007). Análisis crítico: Liderazgo a través de la historia. [Documento en línea]. http://revistas.utp.edu.co/index.php/revistaciencia/article/view/5621 [Consulta: 2021, marzo 21].

 

Vázquez, S.; Bernal, J. y Liesa, M. (2014). La conceptualización del liderazgo: una aproximación desde la práctica educativa. [Documento en línea]. Disponible en: https://www.redalyc.org/pdf/551/55132460004.pdf. [Consulta: 2021, marzo 21].

 

Fuente: El autor escribe para el Portal Otras Voces en Edcación

Comparte este contenido:

Gerencia emergente: Pandemia, TIC y nuevas categorías para el éxito de las organizaciones latinoamericanas del siglo XXI

Los modelos gerenciales actuales se derivan en gran medida de los procesos científicos de la administración de empresas, estudiados e implementados por Ford, Taylor y Fayol, en su momento, siendo posteriormente mejorados y re combinados desde la óptica del triángulo empresarial: maximizar beneficios, reducir costos y aumentar la producción.

En ese transitar modelado por el sistema capitalista surgen nuevas propuestas gerenciales, muchas trasladadas y adaptadas desde otras áreas del saber en respuesta a la intrincada complejidad que envuelve al mundo globalizado y las economías locales, donde ya se ha comprendido la necesidad de incorporar a las Tecnologías de la Información y Comunicación (TIC) para la optimización de la función gerencial y organizacional, pues con ellas se puede garantizan en tiempo real el flujo de información tan necesario para la toma de decisiones.

Este planteamiento es sustentado en Romero (2010:78), al considerar el hecho de pruebas científicas que demuestran que, cualquier mejora en la gerencia, entre otros elementos, repercuten en un aumento “en la productividad de sus colaboradores y una mayor competitividad de la organización, logrando así una mayor eficiencia, eficacia y permanencia en el mercado”, es decir, que existe una relación directamente proporcional entre la adopción de nuevos enfoques emergentes y el tan anhelado éxito organizacional.

Esta relación entre gerencia y TIC se convierte en un desafío para la gerencia conservadora latinoamericana, dado que, le exige asimilar modelos gerenciales emergentes y tropicalizarlos a la cultura organizacional en función del modelo económico adoptado en la región para garantizar en gran parte lo que hemos denominado el triángulo empresarial, pues en todo momento se trata de mantener a la organización en índices positivos de sobrevivencia y plena productividad.

Desde esta perspectiva, Colavolpe y Silva (2012:22) son coincidentes con Romero (ob cit), al señalar que, en efecto, “las empresas del siglo XXI requerirán visiones, estrategias y diseños que las capaciten para contender con la supercompetencia, los cambios profundos de la tecnología y la revalorización de la fuerza de trabajo”, colocando en el tapete un conjunto de categorías a tener en cuenta al momento de adoptar e implementar modelos emergentes que integren generación de conocimiento, creatividad e innovación, liderazgo, adopción de las TIC, y cultura organizacional.

Las categorías expuestas deben ser acogidas, según el contexto, por las organizaciones Latinoamericanas que busquen sobrevivir y ser competitivas ante el avasallamiento de las empresas transnacionales quienes en su mayoría imponen ritmos y estilos gerenciales propios, diseñados en regiones sumamente desarrolladas en lo social, cultural, tecnológico y económico, por lo que las organizaciones locales les corresponde, adicionalmente, revisar su adaptabilidad y flexibilidad organizacional para así poder trascender las turbulencias y exigencias del entorno con un piso organizacional lo suficientemente homogéneo.

No obstante, las organizaciones a nivel mundial se enfrentan en este momento a un oscurecimiento de sus objetivos y metas ante la pandemia generada por el COVID19 la cual ha paralizado economías enteras, obligando el cierre de empresas, llevándolas a reorientar muchos procesos y adoptar el teletrabajo para mantener activa las funciones vitales de la organización. Esta perspectiva sustenta y empuja con más fuerza lo dicho con anterioridad de adoptar e incorporar urgentemente en los modelos gerenciales emergentes el uso de las TIC pues la pandemia estará presente por mucho tiempo y como ya se hemos visto no solo afecta al talento humano sino a las propias organizaciones las cuales de por si tenían sus propios problemas antes de la aparición del COVID19.

Sin duda alguna, la gerencia emergente está llamada a construir enfoques donde se conjuguen otras categorías a fin de reorientar o crear organizaciones que sobrepasen las turbulencias internas y externas sin desviarlas de sus objetivos y sin perder de vista que las economías locales, en estos momentos, se encuentran bajo procesos de concertación, reconstrucción y de cambios sustanciales en sus enfoques tradicionales obligadas no solo por la generalización y expansión de la pandemia sino por el agotamiento del modelo económico imperante que ha dado origen a las convulsiones observadas en cada continente.

Referencias:

Colavolpe, M. y Silva, M. (2012). Tendencias paradigmáticas de la ciencia administrativa. Un recorrido de su episteme y una mirada reflexiva al devenir organizacional. Revista Honoris Causa de la Universidad Yacambú. Vol. 3, Nro. 2. Diciembre 2012. [Documento en línea]. Disponible en: http://universidadyacambu.azurewebsites.net/wp-content/uploads/2015/02/HonorisCausa4.pdf [Consulta: 2015, Abril 17].

Romero, E. (2010). Gestión y gerencia empresariales: Aplicadas al siglo XXI. Colombia. ECOE EDICIONES.

 

Hayah García

Profesor Agregado D.E.

Universidad “Clodosbaldo Russian”

Cumaná – Sucre – Venezuela

Emailhayahgarcia@gmail.com

 

Fuente: El autor escribe para el Portal Otras Voces en Educación

Comparte este contenido:
Page 1 of 2
1 2