Tema: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 3:42 pm
El protocolo a seguir ante un conflicto/discusión/desacuerdo sería el siguiente: 1. Describir la situación en un único texto de modo tal que todos los implicados esten de acuerdo en la presentación de los hechos o si esto no es posible, incluir ambas versiones, pidiendo ayuda en la resolución. 2. Presentar el prompt a una IA (por ejemplo para estos fines yo uso un GPT llamado "Mediator", que simplemente es GPT4 con las instrucciones para que trate de resolver conflictos de acuerdo con una ética utilitarista, pero si existiera alguna más universal en el futuro podría ser preferible). 3. Si es necesario, retroalimentar la respuesta con más detalles, información o argumentación adicional que vaya planteandose hasta que todas las partes determinen que no hay ninguna información relevante o pregunta nueva que aportar. 4. Acatar la respuesta de la IA, renunciando ambas partes a mantener cualquier actitud de animadversión y archivando las conclusiones como precedente para prevenir potenciales conflictos futuros que pudieran ser similares.
Yo no le veo fallo, me parece un proceso simple, neutro, económico y justo, así que a mi juicio parece obvio que debería ser el método preferido para la mayoría de la gente. Sin embargo en la vida real me encuentro mucha oposición (hasta el punto de que esta misma semana un -supongo que ya ex-amigo- decidió abandonar enfadado un grupo de Whatsapp después de que yo compartiera una conversación con Mediator planteando un conflicto de este tipo). Al intentar averiguar el por qué de la negativa a emplear un método así el máximo argumento que dan es que ChatGPT no tiene sentimientos y no "sabe" lo que dice, que simplemente devuelve texto con las palabras estadísticamente más probables...sin embargo las mismas personas no tendrían ningún inconveniente en preguntar a ChatGPT sobre la invarianza de fase local del Lagrangiano de Schrödinger cuando en realidad tampoco "sabe" nada al respecto. Además el hecho de que no tenga sentimientos lo veo como una ventaja importante más que una desventaja, ya que la respuesta no quedará distorsionada por lealtades, afinidades, agendas ocultas, prejuicios, presión de grupo, sesgos cognitivos, etc. y tampoco logro entender que no se vea universalmente así.
Así que, ¿podrías alguien enseñarme por qué estoy equivocado y NO sería una buena idea delegar la resolución de conflictos a una IA?
El llobu V.I.P.
Mensajes : 48074 Edad : 63 Localización : La llobera (aquí si estás dentro, allí si estás fuera)
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 4:06 pm
Las IA no tienen límites, ni tienen que rendir cuentas, ni tienen responsabilidad, así que deberían usarse como una herramienta: aportar datos y soluciones, sin embargo nunca, repite el llobu, nunca, deben decidir por nosotros. El día que lo hagan pasaremos a ser esclavos.
Salú y República.
A NEROCAESAR le gusta esta publicaciòn
todostolais Novato/a
Mensajes : 4
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 4:28 pm
Darth Kimbo escribió:
El protocolo a seguir ante un conflicto/discusión/desacuerdo sería el siguiente: 1. Describir la situación en un único texto de modo tal que todos los implicados esten de acuerdo en la presentación de los hechos o si esto no es posible, incluir ambas versiones, pidiendo ayuda en la resolución. 2. Presentar el prompt a una IA (por ejemplo para estos fines yo uso un GPT llamado "Mediator", que simplemente es GPT4 con las instrucciones para que trate de resolver conflictos de acuerdo con una ética utilitarista, pero si existiera alguna más universal en el futuro podría ser preferible). 3. Si es necesario, retroalimentar la respuesta con más detalles, información o argumentación adicional que vaya planteandose hasta que todas las partes determinen que no hay ninguna información relevante o pregunta nueva que aportar. 4. Acatar la respuesta de la IA, renunciando ambas partes a mantener cualquier actitud de animadversión y archivando las conclusiones como precedente para prevenir potenciales conflictos futuros que pudieran ser similares.
Yo no le veo fallo, me parece un proceso simple, neutro, económico y justo, así que a mi juicio parece obvio que debería ser el método preferido para la mayoría de la gente. Sin embargo en la vida real me encuentro mucha oposición (hasta el punto de que esta misma semana un -supongo que ya ex-amigo- decidió abandonar enfadado un grupo de Whatsapp después de que yo compartiera una conversación con Mediator planteando un conflicto de este tipo). Al intentar averiguar el por qué de la negativa a emplear un método así el máximo argumento que dan es que ChatGPT no tiene sentimientos y no "sabe" lo que dice, que simplemente devuelve texto con las palabras estadísticamente más probables...sin embargo las mismas personas no tendrían ningún inconveniente en preguntar a ChatGPT sobre la invarianza de fase local del Lagrangiano de Schrödinger cuando en realidad tampoco "sabe" nada al respecto. Además el hecho de que no tenga sentimientos lo veo como una ventaja importante más que una desventaja, ya que la respuesta no quedará distorsionada por lealtades, afinidades, agendas ocultas, prejuicios, presión de grupo, sesgos cognitivos, etc. y tampoco logro entender que no se vea universalmente así.
Así que, ¿podrías alguien enseñarme por qué estoy equivocado y NO sería una buena idea delegar la resolución de conflictos a una IA?
Los seres sociales utilizan las emociones y los sentimientos para la resolución de conflictos de modo que utilizar una herramienta que no los contemple no parece muy práctico. Puede servir para una orientación, pero incluso en el texto a redactar los sentimientos y emociones ya estarán presentes. Por otro lado la programación del ChatGPT está hecha en un contexto social que ya presenta una serie de sesgos y prejuicios, por tanto no es un medio con la suficiente objetividad.
A el.loco.lucas le gusta esta publicaciòn
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 6:49 pm
Darth Kimbo escribió:
El protocolo a seguir ante un conflicto/discusión/desacuerdo sería el siguiente: 1. Describir la situación en un único texto de modo tal que todos los implicados esten de acuerdo en la presentación de los hechos o si esto no es posible, incluir ambas versiones, pidiendo ayuda en la resolución. 2. Presentar el prompt a una IA (por ejemplo para estos fines yo uso un GPT llamado "Mediator", que simplemente es GPT4 con las instrucciones para que trate de resolver conflictos de acuerdo con una ética utilitarista, pero si existiera alguna más universal en el futuro podría ser preferible). 3. Si es necesario, retroalimentar la respuesta con más detalles, información o argumentación adicional que vaya planteandose hasta que todas las partes determinen que no hay ninguna información relevante o pregunta nueva que aportar. 4. Acatar la respuesta de la IA, renunciando ambas partes a mantener cualquier actitud de animadversión y archivando las conclusiones como precedente para prevenir potenciales conflictos futuros que pudieran ser similares.
Yo no le veo fallo, me parece un proceso simple, neutro, económico y justo, así que a mi juicio parece obvio que debería ser el método preferido para la mayoría de la gente. Sin embargo en la vida real me encuentro mucha oposición (hasta el punto de que esta misma semana un -supongo que ya ex-amigo- decidió abandonar enfadado un grupo de Whatsapp después de que yo compartiera una conversación con Mediator planteando un conflicto de este tipo). Al intentar averiguar el por qué de la negativa a emplear un método así el máximo argumento que dan es que ChatGPT no tiene sentimientos y no "sabe" lo que dice, que simplemente devuelve texto con las palabras estadísticamente más probables...sin embargo las mismas personas no tendrían ningún inconveniente en preguntar a ChatGPT sobre la invarianza de fase local del Lagrangiano de Schrödinger cuando en realidad tampoco "sabe" nada al respecto. Además el hecho de que no tenga sentimientos lo veo como una ventaja importante más que una desventaja, ya que la respuesta no quedará distorsionada por lealtades, afinidades, agendas ocultas, prejuicios, presión de grupo, sesgos cognitivos, etc. y tampoco logro entender que no se vea universalmente así.
Así que, ¿podrías alguien enseñarme por qué estoy equivocado y NO sería una buena idea delegar la resolución de conflictos a una IA?
Yo no le confiaría ninguna decisión importante a una supuesta inteligencia artificial, tipo ChatGPT, a la que le preguntaron por el número que era más probable que saliera premiado en la Lotería de Navidad y dio como respuesta un número concreto, tras un ingente análisis estadístico de los sorteos previos. Si una IA da respuestas tan estúpidas, no es fiable.
A athenea le gusta esta publicaciòn
Darth Kimbo Experto/a
Mensajes : 1301
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 7:19 pm
todostolais escribió:
Los seres sociales utilizan las emociones y los sentimientos para la resolución de conflictos de modo que utilizar una herramienta que no los contemple no parece muy práctico. Puede servir para una orientación, pero incluso en el texto a redactar los sentimientos y emociones ya estarán presentes. Por otro lado la programación del ChatGPT está hecha en un contexto social que ya presenta una serie de sesgos y prejuicios, por tanto no es un medio con la suficiente objetividad.
Bueno, un modelo de lenguaje puede contemplar los sentimientos (como un elemento o dato más del contexto) sin estar sometido a ellos. Como bien dices, en la redacción estarán presentes por lo que sí o sí acabaran formando parte del prompt. Por eso es importante que todos esten de acuerdo/redacten su propia versión en el prompt que se introduce.
Por otra parte lo de los sesgos y prejuicios inherentes al lenguaje lo acepto, pero también existe (y en mucha mayor medida y menor control) este mismo componente de sesgo en la educación de los humanos y en su propio contacto con el lenguaje. Si un GPT4 bien entrenado se desvía respecto de la objetividad ideal un 3% (por decir algo) debido al sesgo implícito en los textos con los que ha sido entrenado, siendo esta la única fuente de sesgo, mientras que un humano se desvía (siendo conservadores) el mismo 3% debido al condicionamiento cultural más un 28% (también siendo conservadores creo) por el hecho de estar sujeto él mismo a intereses y preferencias personales, miedos, afán de ser bien visto por tal o cual miembro del grupo, apego a creencias irracionales, etc. estaríamos ante el dilema de elegir entre el 3% de desviación y el 31% ¿por qué iba a ser preferible lo segundo? (además, hay que tener en cuenta que el humano muy probablemente o bien será parte implicada/interesada en el conflicto o bien habrá que pagarle para que ejerza su función de mediador, por lo que también parece menos preferible).
En cualquier caso creo que esta última objeción es la mejor. Lo interpreto como que si esta objetividad mejorara en futuras versiones (imaginemos el caso ideal de que una IA llegue a poder emitir juicios completamente objetivos, lo que quiera que esto signifique), entonces sí sería preferible usar este método, ¿no?
El llobu escribió:
Las IA no tienen límites, ni tienen que rendir cuentas, ni tienen responsabilidad, así que deberían usarse como una herramienta: aportar datos y soluciones, sin embargo nunca, repite el llobu, nunca, deben decidir por nosotros. El día que lo hagan pasaremos a ser esclavos.
Salú y República.
Por eso pueden llegar a ser teóricamente más libres y objetivos. En el caso de ChatGPT por ejemplo, está claro que OpenAI sí los limita mucho para que sean políticamente correctos (lo cual no me parece bien) pero el hecho de que no tengan miedo a represalias les hace si acaso más aptos para responder "honestamente", es decir para tratar el texto presentado por sí mismo y dar una respuesta más neutra y desafectada.
Pero vale, en concordancia con lo que planteas corregiría el punto 4 y en vez de "acatar" la respuesta de la IA, como si hubiera que obedecer ciegamente a lo que diga aunque nadie esté de acuerdo, pondría algo así como "sopesar la respuesta de la IA para decidir el curso de acción".
A El llobu le gusta esta publicaciòn
Darth Kimbo Experto/a
Mensajes : 1301
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 7:31 pm
el.loco.lucas escribió:
Darth Kimbo escribió:
El protocolo a seguir ante un conflicto/discusión/desacuerdo sería el siguiente: 1. Describir la situación en un único texto de modo tal que todos los implicados esten de acuerdo en la presentación de los hechos o si esto no es posible, incluir ambas versiones, pidiendo ayuda en la resolución. 2. Presentar el prompt a una IA (por ejemplo para estos fines yo uso un GPT llamado "Mediator", que simplemente es GPT4 con las instrucciones para que trate de resolver conflictos de acuerdo con una ética utilitarista, pero si existiera alguna más universal en el futuro podría ser preferible). 3. Si es necesario, retroalimentar la respuesta con más detalles, información o argumentación adicional que vaya planteandose hasta que todas las partes determinen que no hay ninguna información relevante o pregunta nueva que aportar. 4. Acatar la respuesta de la IA, renunciando ambas partes a mantener cualquier actitud de animadversión y archivando las conclusiones como precedente para prevenir potenciales conflictos futuros que pudieran ser similares.
Yo no le veo fallo, me parece un proceso simple, neutro, económico y justo, así que a mi juicio parece obvio que debería ser el método preferido para la mayoría de la gente. Sin embargo en la vida real me encuentro mucha oposición (hasta el punto de que esta misma semana un -supongo que ya ex-amigo- decidió abandonar enfadado un grupo de Whatsapp después de que yo compartiera una conversación con Mediator planteando un conflicto de este tipo). Al intentar averiguar el por qué de la negativa a emplear un método así el máximo argumento que dan es que ChatGPT no tiene sentimientos y no "sabe" lo que dice, que simplemente devuelve texto con las palabras estadísticamente más probables...sin embargo las mismas personas no tendrían ningún inconveniente en preguntar a ChatGPT sobre la invarianza de fase local del Lagrangiano de Schrödinger cuando en realidad tampoco "sabe" nada al respecto. Además el hecho de que no tenga sentimientos lo veo como una ventaja importante más que una desventaja, ya que la respuesta no quedará distorsionada por lealtades, afinidades, agendas ocultas, prejuicios, presión de grupo, sesgos cognitivos, etc. y tampoco logro entender que no se vea universalmente así.
Así que, ¿podrías alguien enseñarme por qué estoy equivocado y NO sería una buena idea delegar la resolución de conflictos a una IA?
Yo no le confiaría ninguna decisión importante a una supuesta inteligencia artificial, tipo ChatGPT, a la que le preguntaron por el número que era más probable que saliera premiado en la Lotería de Navidad y dio como respuesta un número concreto, tras un ingente análisis estadístico de los sorteos previos. Si una IA da respuestas tan estúpidas, no es fiable.
Claro es que si le haces una pregunta tonta (que nada ni nadie puede realistamente conocer la respuesta) fuera de todo contexto (partiendo solo del prompt de esta pregunta, sin haberle indicado que debe responder respuestas fiables o si debe completar un texto con imaginación o si te está ayudando a escribir una novela) pues es esperable que de una respuesta tonta. Es como si al probar un coche intentaras cruzar un río y al no conseguirlo llegaras a la conclusión de que no es fiable para nada. Ojo no estoy diciendo que ChatGPT sea fiable, creo que hay que examinar críticamente las respuestas que de (al igual que hay que hacerlo con el mayor experto a nivel mundial o con cualquier anónimo random de Twitter), simplemente que por la forma que tiene de abordar los problemas que se le plantean y considerando que para conseguir un servicio parecido por parte de un humano hay que pagar (y bastante además) creo que ofrece una ratio de ventajas/desventajas bastante mejor que cualquier otra alternativa.
Tatsumaru V.I.P.
Mensajes : 31649
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 7:35 pm
No cuentas con el propio rechazo del ser humano a una decisión no tomada por él mismo. Aunque la solución se la sugiera algo que ha creado, es la paradoja. No puedes eliminarla. Y va desde lo pequeño, entre dos personas, a lo mayor, conflictos de grupo o entre naciones. Resumiendo: no te fías.
Última edición por Tatsumaru el Vie Ene 05, 2024 7:38 pm, editado 1 vez
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 7:37 pm
Darth Kimbo escribió:
el.loco.lucas escribió:
Darth Kimbo escribió:
El protocolo a seguir ante un conflicto/discusión/desacuerdo sería el siguiente: 1. Describir la situación en un único texto de modo tal que todos los implicados esten de acuerdo en la presentación de los hechos o si esto no es posible, incluir ambas versiones, pidiendo ayuda en la resolución. 2. Presentar el prompt a una IA (por ejemplo para estos fines yo uso un GPT llamado "Mediator", que simplemente es GPT4 con las instrucciones para que trate de resolver conflictos de acuerdo con una ética utilitarista, pero si existiera alguna más universal en el futuro podría ser preferible). 3. Si es necesario, retroalimentar la respuesta con más detalles, información o argumentación adicional que vaya planteandose hasta que todas las partes determinen que no hay ninguna información relevante o pregunta nueva que aportar. 4. Acatar la respuesta de la IA, renunciando ambas partes a mantener cualquier actitud de animadversión y archivando las conclusiones como precedente para prevenir potenciales conflictos futuros que pudieran ser similares.
Yo no le veo fallo, me parece un proceso simple, neutro, económico y justo, así que a mi juicio parece obvio que debería ser el método preferido para la mayoría de la gente. Sin embargo en la vida real me encuentro mucha oposición (hasta el punto de que esta misma semana un -supongo que ya ex-amigo- decidió abandonar enfadado un grupo de Whatsapp después de que yo compartiera una conversación con Mediator planteando un conflicto de este tipo). Al intentar averiguar el por qué de la negativa a emplear un método así el máximo argumento que dan es que ChatGPT no tiene sentimientos y no "sabe" lo que dice, que simplemente devuelve texto con las palabras estadísticamente más probables...sin embargo las mismas personas no tendrían ningún inconveniente en preguntar a ChatGPT sobre la invarianza de fase local del Lagrangiano de Schrödinger cuando en realidad tampoco "sabe" nada al respecto. Además el hecho de que no tenga sentimientos lo veo como una ventaja importante más que una desventaja, ya que la respuesta no quedará distorsionada por lealtades, afinidades, agendas ocultas, prejuicios, presión de grupo, sesgos cognitivos, etc. y tampoco logro entender que no se vea universalmente así.
Así que, ¿podrías alguien enseñarme por qué estoy equivocado y NO sería una buena idea delegar la resolución de conflictos a una IA?
Yo no le confiaría ninguna decisión importante a una supuesta inteligencia artificial, tipo ChatGPT, a la que le preguntaron por el número que era más probable que saliera premiado en la Lotería de Navidad y dio como respuesta un número concreto, tras un ingente análisis estadístico de los sorteos previos. Si una IA da respuestas tan estúpidas, no es fiable.
Claro es que si le haces una pregunta tonta (que nada ni nadie puede realistamente conocer la respuesta) fuera de todo contexto (partiendo solo del prompt de esta pregunta, sin haberle indicado que debe responder respuestas fiables o si debe completar un texto con imaginación o si te está ayudando a escribir una novela) pues es esperable que de una respuesta tonta. Es como si al probar un coche intentaras cruzar un río y al no conseguirlo llegaras a la conclusión de que no es fiable para nada. Ojo no estoy diciendo que ChatGPT sea fiable, creo que hay que examinar críticamente las respuestas que de (al igual que hay que hacerlo con el mayor experto a nivel mundial o con cualquier anónimo random de Twitter), simplemente que por la forma que tiene de abordar los problemas que se le plantean y considerando que para conseguir un servicio parecido por parte de un humano hay que pagar (y bastante además) creo que ofrece una ratio de ventajas/desventajas bastante mejor que cualquier otra alternativa.
Es obvio que la pregunta acerca de la lotería era absurda pero lo que yo quería señalar es que la respuesta de ChatGPT no es inteligente. Eso me genera mucha desconfianza. Principalmente cuando se propone aceptar sus conclusiones sin un mínimo análisis posterior.
Y, profundizando algo en la cuestión, me gustaría resaltar que casi todos los conflictos interpersonales tienen un importante componente emocional. Por eso creo que un buen mediador (humano o artificial) nunca será quién pueda prescindir de las emociones sino quién haga una buena gestión emocional para ayudar a las partes a entender mutuamente sus respectivas emociones.
todostolais Novato/a
Mensajes : 4
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 7:42 pm
Darth Kimbo escribió:
todostolais escribió:
Los seres sociales utilizan las emociones y los sentimientos para la resolución de conflictos de modo que utilizar una herramienta que no los contemple no parece muy práctico. Puede servir para una orientación, pero incluso en el texto a redactar los sentimientos y emociones ya estarán presentes. Por otro lado la programación del ChatGPT está hecha en un contexto social que ya presenta una serie de sesgos y prejuicios, por tanto no es un medio con la suficiente objetividad.
Bueno, un modelo de lenguaje puede contemplar los sentimientos (como un elemento o dato más del contexto) sin estar sometido a ellos. Como bien dices, en la redacción estarán presentes por lo que sí o sí acabaran formando parte del prompt. Por eso es importante que todos esten de acuerdo/redacten su propia versión en el prompt que se introduce.
Por otra parte lo de los sesgos y prejuicios inherentes al lenguaje lo acepto, pero también existe (y en mucha mayor medida y menor control) este mismo componente de sesgo en la educación de los humanos y en su propio contacto con el lenguaje. Si un GPT4 bien entrenado se desvía respecto de la objetividad ideal un 3% (por decir algo) debido al sesgo implícito en los textos con los que ha sido entrenado, siendo esta la única fuente de sesgo, mientras que un humano se desvía (siendo conservadores) el mismo 3% debido al condicionamiento cultural más un 28% (también siendo conservadores creo) por el hecho de estar sujeto él mismo a intereses y preferencias personales, miedos, afán de ser bien visto por tal o cual miembro del grupo, apego a creencias irracionales, etc. estaríamos ante el dilema de elegir entre el 3% de desviación y el 31% ¿por qué iba a ser preferible lo segundo? (además, hay que tener en cuenta que el humano muy probablemente o bien será parte implicada/interesada en el conflicto o bien habrá que pagarle para que ejerza su función de mediador, por lo que también parece menos preferible).
En cualquier caso creo que esta última objeción es la mejor. Lo interpreto como que si esta objetividad mejorara en futuras versiones (imaginemos el caso ideal de que una IA llegue a poder emitir juicios completamente objetivos, lo que quiera que esto signifique), entonces sí sería preferible usar este método, ¿no?
El llobu escribió:
Las IA no tienen límites, ni tienen que rendir cuentas, ni tienen responsabilidad, así que deberían usarse como una herramienta: aportar datos y soluciones, sin embargo nunca, repite el llobu, nunca, deben decidir por nosotros. El día que lo hagan pasaremos a ser esclavos.
Salú y República.
Por eso pueden llegar a ser teóricamente más libres y objetivos. En el caso de ChatGPT por ejemplo, está claro que OpenAI sí los limita mucho para que sean políticamente correctos (lo cual no me parece bien) pero el hecho de que no tengan miedo a represalias les hace si acaso más aptos para responder "honestamente", es decir para tratar el texto presentado por sí mismo y dar una respuesta más neutra y desafectada.
Pero vale, en concordancia con lo que planteas corregiría el punto 4 y en vez de "acatar" la respuesta de la IA, como si hubiera que obedecer ciegamente a lo que diga aunque nadie esté de acuerdo, pondría algo así como "sopesar la respuesta de la IA para decidir el curso de acción".
Creo que en contadas ocasiones será preferible porque en la comunicación humana como te digo los componentes emocionales forman parte de la resolución de conflictos, generan respuestas fisiológicas para bien y para mal. Por ejemplo, Chat GTP no te va a echar un polvo ni dar un abrazo, y muchos conflictos pueden resolverse con relativa eficiencia influenciados por esto. Tampoco creo que sepa cuando recomendarte echar un polvo, y probablemente que te lo recomiende tenga un efecto nocivo en la libido. De todos modos no veo mal intentar ese tipo de resolución al menos, así a priori puede resultar interesante, como una herramienta más. Ahora tengo ganas de plantear un conflicto al chat, ¿hay que pagar para usarlo?
También me parece coherente y estoy de acuerdo con las respuestas de los forestos Tatsumaru y patolocolucas
A Darth Kimbo le gusta esta publicaciòn
El llobu V.I.P.
Mensajes : 48074 Edad : 63 Localización : La llobera (aquí si estás dentro, allí si estás fuera)
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 8:24 pm
Darth Kimbo escribió:
Pero vale, en concordancia con lo que planteas corregiría el punto 4 y en vez de "acatar" la respuesta de la IA, como si hubiera que obedecer ciegamente a lo que diga aunque nadie esté de acuerdo, pondría algo así como "sopesar la respuesta de la IA para decidir el curso de acción".
A simple vista, eso parece lo más inteligente, y para sopesarla correctamente intentar explicar y entender por qué la IA da una respuesta diferente a la propia (si fuera el caso). Eso podría enseñarnos a ser más objetivos, de la misma manera que hacer lo mismo con las respuestas de los demás nos vuelve más empáticos.
Salú y República.
athenea V.I.P.
Mensajes : 7629 Localización : Buenos Aires
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 8:30 pm
¿Puede un programa posiblilístico desenrredar un conflicto entre seres emotivos? No lo veo...
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 8:32 pm
athenea escribió:
¿Puede un programa posiblilístico desenrredar un conflicto entre seres emotivos? No lo veo...
Ni yo
El llobu V.I.P.
Mensajes : 48074 Edad : 63 Localización : La llobera (aquí si estás dentro, allí si estás fuera)
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 8:36 pm
Sólo depende de las ganas de desenredar el conflicto que tengan los seres emotivos.
Salú y República.
A athenea le gusta esta publicaciòn
Tatsumaru V.I.P.
Mensajes : 31649
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 9:45 pm
Con una IA actual que quiere complacer a quien pregunta e incapaz de tomar decisiones prefiriendo dar rodeos en su papel de sirviente desde luego que no. Ya la puse a prueba con un conflicto imaginario y fue bastante incompetente y mostrando esas características, ese sesgo. Por alguna parte del foro anda el experimento.
El llobu V.I.P.
Mensajes : 48074 Edad : 63 Localización : La llobera (aquí si estás dentro, allí si estás fuera)
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 9:54 pm
Bueno, también hay que entender que las IAs acaban de nacer, es decir, todavía están en pañales. Dadles un poco de tiempo... y mejorarán... mientras lo hacen, aprendamos a usarlas con inteligencia y usémoslas como herramientas, sin darles el poder de decidir.
Salú y República.
Darth Kimbo Experto/a
Mensajes : 1301
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 11:34 pm
Tatsumaru escribió:
No cuentas con el propio rechazo del ser humano a una decisión no tomada por él mismo. Aunque la solución se la sugiera algo que ha creado, es la paradoja. No puedes eliminarla. Y va desde lo pequeño, entre dos personas, a lo mayor, conflictos de grupo o entre naciones. Resumiendo: no te fías.
Disculpa, lo he leído 7 veces y no lo entiendo.
el.loco.lucas escribió:
Es obvio que la pregunta acerca de la lotería era absurda pero lo que yo quería señalar es que la respuesta de ChatGPT no es inteligente. Eso me genera mucha desconfianza. Principalmente cuando se propone aceptar sus conclusiones sin un mínimo análisis posterior.
Y, profundizando algo en la cuestión, me gustaría resaltar que casi todos los conflictos interpersonales tienen un importante componente emocional. Por eso creo que un buen mediador (humano o artificial) nunca será quién pueda prescindir de las emociones sino quién haga una buena gestión emocional para ayudar a las partes a entender mutuamente sus respectivas emociones.
Ya te digo no sé en qué contexto se le preguntó esto. Le he preguntado "cual va a ser el resultado de la lotería del niño?" y me responde lo siguiente:
ChatGPT4 escribió:
Predecir los resultados de un sorteo de lotería, como la Lotería del Niño, es imposible debido a la naturaleza aleatoria y altamente regulada de estos sorteos. Los números son seleccionados al azar y no hay patrones o métodos que puedan prever los resultados futuros. Cada número tiene la misma probabilidad de ser elegido, independientemente de los sorteos anteriores o de cualquier otro factor.
En el campo de la probabilidad y estadística, un evento como el sorteo de una lotería se clasifica como un proceso estocástico, que es intrínsecamente aleatorio. Las teorías de probabilidad no pueden prever un resultado específico en tales eventos, solo pueden definir la probabilidad de ocurrencia de diferentes resultados.
Por lo tanto, la única forma de conocer el resultado de la Lotería del Niño es esperar a que se realice el sorteo y se anuncien oficialmente los números ganadores.
No me parece tan poco inteligente.
Estoy de acuerdo con que será mejor mediador quien haga una buena gestion emocional...pero sin pringarse. Y eso creo que sí se le da bien a GPT ya que puede gestionar y procesar la carga emocional a un nivel abstracto, conceptual, pero sin verse arrastrado a corromper el razonamiento.
todostolais escribió:
Creo que en contadas ocasiones será preferible porque en la comunicación humana como te digo los componentes emocionales forman parte de la resolución de conflictos, generan respuestas fisiológicas para bien y para mal. Por ejemplo, Chat GTP no te va a echar un polvo ni dar un abrazo, y muchos conflictos pueden resolverse con relativa eficiencia influenciados por esto. Tampoco creo que sepa cuando recomendarte echar un polvo, y probablemente que te lo recomiende tenga un efecto nocivo en la libido. De todos modos no veo mal intentar ese tipo de resolución al menos, así a priori puede resultar interesante, como una herramienta más. Ahora tengo ganas de plantear un conflicto al chat, ¿hay que pagar para usarlo?
También me parece coherente y estoy de acuerdo con las respuestas de los forestos Tatsumaru y patolocolucas
El tema está en que a veces estos componentes emocionales conllevan cierto "juego sucio", puede entrar en juego la intimidación, o precisamente la expectativa de sexo, o el miedo al rechazo, o el deseo de someter a otro, y mil cosas más que no contribuyen a llegar a una mayor y mejor comprensión de la verdad sino a un equilibrio de fuerzas basado en pulsiones primitivas e instintivas, lo cual no parece muy adecuado para el ser humano civilizado. Lo de que no te recomiende echar un polvo bueno...depende de cómo hayas configurado el GPT pero incluso asumiendo que el ChatGPT3.5 estándar no te lo recomiende nunca directamente, estoy seguro que con una serie de preguntas y respuestas puede llegar a sugerirlo o a ponerte sobre la pista. Si quieres plantearle algun conflicto puedes hacerlo en este modelo si tienes suscripción activa a GPT Plus, si no me puedes pasar el prompt y le pregunto yo y te digo la respuesta .
Es más se me ocurre una cosa: proponed aquí posibles conflictos y veamos si os resulta convincente la respuesta de GPT Mediator.
athenea escribió:
¿Puede un programa posiblilístico desenrredar un conflicto entre seres emotivos? No lo veo...
Independientemente de cómo funcione un programa, si tienes una "caja negra" a la que le puedes proponer problemas de todo tipo (acertijos, problemas de física, de cálculo, escribir poemas, analizar imágenes, traducir textos, programar algoritmos, generar imágenes...) y en el 99% de los problemas los resuelve de forma casi perfecta o al menos mejor que la inmensa mayoría que un humano elegido al azar, ¿por qué deberíamos pensar que no va a poder resolver conflictos interpersonales? Si puede "entender" hasta el punto de generar correctamente código de programación sin ser capaz propiamente de compilar y ejecutar programas (cuando aún no contaba con el interprete), o "razonar" de forma acertada sobre cargas, capacitancias, reactancias e impedancias de un circuito sin ser "un ser eléctrico" ¿por qué tendríamos que creernos tan especiales como para pensar que por ser "seres emocionales" no nos va a poder ayudar una Inteligencia Artificial que ha "leído" (o mejor dicho digerido) todo el conocimiento disponible en Internet sobre psicología, filosofía, gestión de conflictos, inteligencia emocional, y millones de cosas más? No le veo lógica desde luego, más allá de la negación del ser humano a verse superado, que no deja de ser un bug más de la mente neurotípica.
Tatsumaru escribió:
Con una IA actual que quiere complacer a quien pregunta e incapaz de tomar decisiones prefiriendo dar rodeos en su papel de sirviente desde luego que no. Ya la puse a prueba con un conflicto imaginario y fue bastante incompetente y mostrando esas características, ese sesgo. Por alguna parte del foro anda el experimento.
Por supuesto hay que intentar por ello redactar el prompt con la máxima objetividad posible. Si se le pide claramente que tome una decisión lo hace claramente. Para ejemplo os enlazo la conversación de la discordia de la que os hablaba antes.
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Vie Ene 05, 2024 11:58 pm
Darth Kimbo escribió:
Por supuesto hay que intentar por ello redactar el prompt con la máxima objetividad posible. Si se le pide claramente que tome una decisión lo hace claramente. Para ejemplo os enlazo la conversación de la discordia de la que os hablaba antes.
La verdad es que me sorprende positivamente la mediación artificial. Aunque no es una cuestión en absoluto complicada para un mediador humano mínimamente razonable. Creo que dónde la IA nos supera claramente es en otro tipo de cuestiones, como decisiones que requieran el manejo de muchos datos..
A todostolais le gusta esta publicaciòn
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 12:01 am
Darth Kimbo escribió:
el.loco.lucas escribió:
Es obvio que la pregunta acerca de la lotería era absurda pero lo que yo quería señalar es que la respuesta de ChatGPT no es inteligente. Eso me genera mucha desconfianza. Principalmente cuando se propone aceptar sus conclusiones sin un mínimo análisis posterior.
Y, profundizando algo en la cuestión, me gustaría resaltar que casi todos los conflictos interpersonales tienen un importante componente emocional. Por eso creo que un buen mediador (humano o artificial) nunca será quién pueda prescindir de las emociones sino quién haga una buena gestión emocional para ayudar a las partes a entender mutuamente sus respectivas emociones.
Ya te digo no sé en qué contexto se le preguntó esto. Le he preguntado "cual va a ser el resultado de la lotería del niño?" y me responde lo siguiente:
ChatGPT4 escribió:
Predecir los resultados de un sorteo de lotería, como la Lotería del Niño, es imposible debido a la naturaleza aleatoria y altamente regulada de estos sorteos. Los números son seleccionados al azar y no hay patrones o métodos que puedan prever los resultados futuros. Cada número tiene la misma probabilidad de ser elegido, independientemente de los sorteos anteriores o de cualquier otro factor.
En el campo de la probabilidad y estadística, un evento como el sorteo de una lotería se clasifica como un proceso estocástico, que es intrínsecamente aleatorio. Las teorías de probabilidad no pueden prever un resultado específico en tales eventos, solo pueden definir la probabilidad de ocurrencia de diferentes resultados.
Por lo tanto, la única forma de conocer el resultado de la Lotería del Niño es esperar a que se realice el sorteo y se anuncien oficialmente los números ganadores.
No me parece tan poco inteligente.
Al menos parece que es sensible a las críticas porque por lo de la lotería de Navidad tuvo muchas.
Laberinto V.I.P.
Mensajes : 5173
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 12:22 am
Y que, como ha dicho El llobu, mejoran y aprenden...no?
No tengo yo mucho conocimiento sobre IA y me pierdo un poco con todo lo que decís, pero creo que se integrarán en nuestra vida cotidiana, incluso resolviendo conflictos de forma efectiva...más pronto de lo que pensamos, probablemente...
Laberinto
P.D. Si he dicho alguna gilipollez, no seáis muy duros conmigo...aprenderé como la IA
A el.loco.lucas y a todostolais les gusta esta publicaciòn
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 12:23 am
Darth Kimbo escribió:
Es más se me ocurre una cosa: proponed aquí posibles conflictos y veamos si os resulta convincente la respuesta de GPT Mediator.
Pongo un caso en el que me tocó hacer de mediador:
Madre e hijo, de 80 y 50 años respectivamente. Ella, viuda desde hace poco tiempo, y acostumbrada a que lo hiciera todo su marido, necesita ayuda con los papeles del banco y con las cuentas. El hijo trabaja en un banco y se le dan bien esas cuestiones. Resulta que la madre no quiere hacer las cosas como le aconseja su hijo. Las quiere hacer a su manera. Él acaba perdiendo la paciencia, se enfada y se marcha diciendo que no la ayudará más. La madre le contesta de mala forma. La relación entre ellos se rompe.
¿Solución?
A Darth Kimbo le gusta esta publicaciòn
athenea V.I.P.
Mensajes : 7629 Localización : Buenos Aires
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 1:21 am
Darth Kimbo escribió:
athenea escribió:
¿Puede un programa posiblilístico desenrredar un conflicto entre seres emotivos? No lo veo...
Independientemente de cómo funcione un programa, si tienes una "caja negra" a la que le puedes proponer problemas de todo tipo (acertijos, problemas de física, de cálculo, escribir poemas, analizar imágenes, traducir textos, programar algoritmos, generar imágenes...) y en el 99% de los problemas los resuelve de forma casi perfecta o al menos mejor que la inmensa mayoría que un humano elegido al azar, ¿por qué deberíamos pensar que no va a poder resolver conflictos interpersonales? Si puede "entender" hasta el punto de generar correctamente código de programación sin ser capaz propiamente de compilar y ejecutar programas (cuando aún no contaba con el interprete), o "razonar" de forma acertada sobre cargas, capacitancias, reactancias e impedancias de un circuito sin ser "un ser eléctrico" ¿por qué tendríamos que creernos tan especiales como para pensar que por ser "seres emocionales" no nos va a poder ayudar una Inteligencia Artificial que ha "leído" (o mejor dicho digerido) todo el conocimiento disponible en Internet sobre psicología, filosofía, gestión de conflictos, inteligencia emocional, y millones de cosas más? No le veo lógica desde luego, más allá de la negación del ser humano a verse superado, que no deja de ser un bug más de la mente neurotípica.
¿Y terminamos gobernados por robots? suena a distopía del Netflix...
Darth Kimbo Experto/a
Mensajes : 1301
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 11:31 am
el.loco.lucas escribió:
Darth Kimbo escribió:
Es más se me ocurre una cosa: proponed aquí posibles conflictos y veamos si os resulta convincente la respuesta de GPT Mediator.
Pongo un caso en el que me tocó hacer de mediador:
Madre e hijo, de 80 y 50 años respectivamente. Ella, viuda desde hace poco tiempo, y acostumbrada a que lo hiciera todo su marido, necesita ayuda con los papeles del banco y con las cuentas. El hijo trabaja en un banco y se le dan bien esas cuestiones. Resulta que la madre no quiere hacer las cosas como le aconseja su hijo. Las quiere hacer a su manera. Él acaba perdiendo la paciencia, se enfada y se marcha diciendo que no la ayudará más. La madre le contesta de mala forma. La relación entre ellos se rompe.
¿Solución?
GPT Mediator escribió:
El conflicto descrito entre la madre y el hijo, centrado en la gestión de asuntos bancarios y financieros, puede ser analizado desde una perspectiva utilitarista, buscando maximizar la utilidad global y fomentar una solución racional que beneficie a ambas partes.
Comunicación Asertiva y Empática: Es fundamental establecer un canal de comunicación asertivo y empático. El hijo, dada su experiencia en el sector bancario, debería abordar la situación con paciencia y comprensión, reconociendo que su madre, recientemente viuda, puede estar enfrentando dificultades emocionales y cognitivas relacionadas con su edad y su nuevo estado. La madre, por su parte, debería esforzarse por expresar sus preocupaciones de manera clara y calmada.
Educación y Autonomía: El hijo podría considerar educar a su madre en cuestiones financieras de manera que ella pueda tomar decisiones informadas. Esto respetaría su autonomía y le proporcionaría una sensación de control, lo cual es crucial para su bienestar emocional.
Soluciones Intermedias y Flexibilidad: Buscar una solución intermedia donde se respeten las preferencias de la madre dentro de un marco racional y seguro propuesto por el hijo. Esto podría incluir opciones como el establecimiento de límites en las transacciones para proteger sus finanzas, mientras se le permite tomar decisiones menores por sí misma.
Apoyo Profesional Externo: Si persisten las diferencias, podrían considerar la ayuda de un asesor financiero neutral. Esto podría aliviar la tensión entre ellos, proporcionando a la madre un asesoramiento profesional que no esté cargado emocionalmente.
Priorización de la Relación sobre el Conflicto: Es crucial que tanto la madre como el hijo reconozcan el valor de su relación y no permitan que diferencias sobre asuntos financieros la dañen. Deben esforzarse por separar sus roles de madre-hijo de los roles de asesora-cliente.
Reconocimiento y Apología: Ambas partes deberían estar dispuestas a reconocer sus errores en la comunicación y a disculparse. Esto puede ayudar a reparar y fortalecer su relación.
En resumen, la solución pasa por mejorar la comunicación, respetar la autonomía y las emociones de cada uno, buscar soluciones flexibles y, si es necesario, contar con la ayuda de profesionales externos. El objetivo es encontrar un equilibrio que respete las necesidades y preferencias de ambos, manteniendo la relación familiar intacta y fortalecida.
Como ves sí tiene en cuenta a las emociones y sentimientos en el razonamiento/respuesta que da aunque él no se vea afectado por ellas, que es lo que comentaba antes.
el.loco.lucas Administrador
Mensajes : 38835
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 11:47 am
Darth Kimbo escribió:
el.loco.lucas escribió:
Darth Kimbo escribió:
Es más se me ocurre una cosa: proponed aquí posibles conflictos y veamos si os resulta convincente la respuesta de GPT Mediator.
Pongo un caso en el que me tocó hacer de mediador:
Madre e hijo, de 80 y 50 años respectivamente. Ella, viuda desde hace poco tiempo, y acostumbrada a que lo hiciera todo su marido, necesita ayuda con los papeles del banco y con las cuentas. El hijo trabaja en un banco y se le dan bien esas cuestiones. Resulta que la madre no quiere hacer las cosas como le aconseja su hijo. Las quiere hacer a su manera. Él acaba perdiendo la paciencia, se enfada y se marcha diciendo que no la ayudará más. La madre le contesta de mala forma. La relación entre ellos se rompe.
¿Solución?
GPT Mediator escribió:
El conflicto descrito entre la madre y el hijo, centrado en la gestión de asuntos bancarios y financieros, puede ser analizado desde una perspectiva utilitarista, buscando maximizar la utilidad global y fomentar una solución racional que beneficie a ambas partes.
Comunicación Asertiva y Empática: Es fundamental establecer un canal de comunicación asertivo y empático. El hijo, dada su experiencia en el sector bancario, debería abordar la situación con paciencia y comprensión, reconociendo que su madre, recientemente viuda, puede estar enfrentando dificultades emocionales y cognitivas relacionadas con su edad y su nuevo estado. La madre, por su parte, debería esforzarse por expresar sus preocupaciones de manera clara y calmada.
Educación y Autonomía: El hijo podría considerar educar a su madre en cuestiones financieras de manera que ella pueda tomar decisiones informadas. Esto respetaría su autonomía y le proporcionaría una sensación de control, lo cual es crucial para su bienestar emocional.
Soluciones Intermedias y Flexibilidad: Buscar una solución intermedia donde se respeten las preferencias de la madre dentro de un marco racional y seguro propuesto por el hijo. Esto podría incluir opciones como el establecimiento de límites en las transacciones para proteger sus finanzas, mientras se le permite tomar decisiones menores por sí misma.
Apoyo Profesional Externo: Si persisten las diferencias, podrían considerar la ayuda de un asesor financiero neutral. Esto podría aliviar la tensión entre ellos, proporcionando a la madre un asesoramiento profesional que no esté cargado emocionalmente.
Priorización de la Relación sobre el Conflicto: Es crucial que tanto la madre como el hijo reconozcan el valor de su relación y no permitan que diferencias sobre asuntos financieros la dañen. Deben esforzarse por separar sus roles de madre-hijo de los roles de asesora-cliente.
Reconocimiento y Apología: Ambas partes deberían estar dispuestas a reconocer sus errores en la comunicación y a disculparse. Esto puede ayudar a reparar y fortalecer su relación.
En resumen, la solución pasa por mejorar la comunicación, respetar la autonomía y las emociones de cada uno, buscar soluciones flexibles y, si es necesario, contar con la ayuda de profesionales externos. El objetivo es encontrar un equilibrio que respete las necesidades y preferencias de ambos, manteniendo la relación familiar intacta y fortalecida.
Como ves sí tiene en cuenta a las emociones y sentimientos en el razonamiento/respuesta que da aunque él no se vea afectado por ellas, que es lo que comentaba antes.
No está mal, pero creo que no mejora una buena mediación humana. Sí puede servir como ayuda general al planteamiento de mediación.
Tatsumaru V.I.P.
Mensajes : 31649
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 11:58 am
Pongamos un caso práctico a esa Ia mediadora:
Supongamos que hay un país en conflicto, en esta guerra han llegado a un punto donde están tan igualados que no hay cambios. Un bando es dirigido por alguien de una religión que no aceptan los dle otro bando y ya en medio de la guerra la odian (es uno de los motivos del conflicto, el religioso), el otro bando lo lidera una mujer, simplemente por ser mujer es insultada por los del bando religioso y fundamentalista. Cada bando tiene en su poder territorios del otro, es decir a población fundamentalista los laicos, y los fundamentalistas a laicos. Bien, el tema es alcanzar un acuerdo de paz pero por estar agotados. Bien, vienen las preguntas:
-¿Qué haría la Ia mediadora? -¿Dividiría el país en dos y cada zona formando un país nuevo? -¿Que haría con las zonas ocupadas? -¿Haría que el país siguiese siendo uno en una solución de compromiso y cómo, teniendo en cuenta las diferencias religiosas y el odio que sienten tras tantas muertes? ¿Qué haría con los territorios ocupados de cada bando? ¿Habría un culpable del conflicto? -El pacto de paz es funcional entre los bandos, quiere decir que ya no pueden más en lo militar y lo económico y sólo sirve para recuperar fuerzas y volver a atacarse a la primera de cambio. Es decir, que cualquier acuerdo es falso y no van a cumplirlo ¿Lo tendría en cuenta la Ia?
Tatsumaru V.I.P.
Mensajes : 31649
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales? Sáb Ene 06, 2024 12:06 pm
-También está el elemento nacionalismo y ambición., Suponemos que los dos bandos quiere controlar ese país y establecer e imponer sus reglas. No es suponer, es lo que suele ocurrir. Lo quieren todo porque han estado muriendo y sufriendo y echan mano de "nuestro país" como argumento.
Bien, ¿todo esto lo puede controlar la Ia para una solución satisfactoria?
Contenido patrocinado
Tema: Re: ¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales?
¿Deberíamos recurrir a la IA para la resolución de conflictos interpersonales?