Getting only NaN's as a network output in Tensorflow Lite micro with Arduino IDE

Hello,

im trying to fetch vibration sensordata and sending it through a neural network for anomaly detection on an ESP32. I first fetch the data, normalize it and then send it to the network. But strangely the output from the netowork is only nan’s. The network input should be a matrix with the shape of (1,6,128). The serial port first plots the sensor data matrix, then the normalized matrix and then the network output. Im working with an windows machine and using the Arduino IDE version 2.0.2.

Can someone help me figure out what is going on here?
Any advice is welcome.

The main program:

// Tensorflow imports
#include <TensorFlowLite_ESP32.h>
#include "tensorflow/lite/micro/all_ops_resolver.h"
#include "tensorflow/lite/micro/micro_error_reporter.h"
#include "tensorflow/lite/micro/micro_interpreter.h"
#include "tensorflow/lite/micro/system_setup.h"
#include "tensorflow/lite/schema/schema_generated.h"
#include "ESP32_Model_Default_quant.h"

// MPU-6050 imports
#include <Adafruit_MPU6050.h>
#include <Adafruit_Sensor.h>
#include <Wire.h>

Adafruit_MPU6050 mpu;

namespace {
  tflite::ErrorReporter* error_reporter = nullptr;
  const tflite::Model* model = nullptr;
  tflite::MicroInterpreter* interpreter = nullptr;
  TfLiteTensor* input = nullptr;
  TfLiteTensor* output = nullptr;

// Create Memory arena for calculations

  constexpr int kTensorArenaSize = 12 * 1024;
  uint8_t tensor_arena[kTensorArenaSize];

}

void setup(){

  // Set up the MPU-6050 --------------------------------------------
  Serial.begin(9600);
  while (!Serial){
    delay(10);
  }

  if (!mpu.begin()) {
    while (1) {
      delay(10);
    }
  }

  mpu.setAccelerometerRange(MPU6050_RANGE_2_G);
  mpu.setGyroRange(MPU6050_RANGE_250_DEG);
  mpu.setFilterBandwidth(MPU6050_BAND_260_HZ);

  // Set up Tensorflow ----------------------------------------------
  static tflite::MicroErrorReporter micro_error_reporter;
  error_reporter = &micro_error_reporter; 

  // Map the model into a usable data structure. This doesn't involve any
  // copying or parsing, it's a very lightweight operation.
  model = tflite::GetModel(ESP32_Model_Default_quant);
  if (model->version() != TFLITE_SCHEMA_VERSION) {
    TF_LITE_REPORT_ERROR(error_reporter,
                         "Model provided is schema version %d not equal "
                         "to supported version %d.",
                         model->version(), TFLITE_SCHEMA_VERSION);
    return;
  }

  // This pulls in all the operation implementations we need.
  // NOLINTNEXTLINE(runtime-global-variables)
  static tflite::AllOpsResolver resolver;

  // Build an interpreter to run the model with.
  static tflite::MicroInterpreter static_interpreter(
      model, resolver, tensor_arena, kTensorArenaSize, error_reporter);
  interpreter = &static_interpreter;

  // Allocate memory from the tensor_arena for the model's tensors.
  TfLiteStatus allocate_status = interpreter->AllocateTensors();
  if (allocate_status != kTfLiteOk) {
    TF_LITE_REPORT_ERROR(error_reporter, "AllocateTensors() failed");
    return;
  }

  // Obtain pointers to the model's input and output tensors.
  input = interpreter->input(0);
  output = interpreter->output(0);

}

float Accx = 0.0;
float Accy = 0.0;
float Accz = 0.0;
float Gyrx = 0.0;
float Gyry = 0.0;
float Gyrz = 0.0;
float Temp = 0.0;

sensors_event_t Acc, Gyr, Temps;

float Input_Matrix_float[1][6][128];
float Input_Matrix_norm[1][6][128];
float Output_Matrix_norm[1][6][128];

int Index = 0;
float Max = 0.0;
float Min = 0.0;
int counter = 0;
int Pos_Min = 0;
int Pos_Max = 0;
int8_t Storage = 0;
float Abs_Sum = 0.0;
float MAE = 0.0;

void loop(){

  mpu.getEvent(&Acc,&Gyr,&Temps);

  Input_Matrix_float[0][0][Index] = Acc.acceleration.x;
  Input_Matrix_float[0][1][Index] = Acc.acceleration.y;
  Input_Matrix_float[0][2][Index] = Acc.acceleration.z;

  Input_Matrix_float[0][3][Index] = Gyr.acceleration.x;
  Input_Matrix_float[0][4][Index] = Gyr.acceleration.y;
  Input_Matrix_float[0][5][Index] = Gyr.acceleration.z;

  Index += 1;

  if (Index==128){

    Serial.print("\n");
    Serial.print("\n");
    Serial.print("\n");
    Serial.print("Input Matrix float\n");
    counter = 0;

    for (int i=0; i<128; i++){
        for (int k=0; k<6; k++){
          Serial.print(Input_Matrix_float[0][k][i]);
          Serial.print(" ");
      }
      Serial.print(counter);
      Serial.print("\n");
      counter += 1;
    }

    for (int i=0; i<128; i++){
      for (int k=0; k<6; k++){
        if (Max < Input_Matrix_float[0][k][i]){
          Max = Input_Matrix_float[0][k][i];
          Pos_Max = i;
        }

        if (Min > Input_Matrix_float[0][k][i]){
          Min = Input_Matrix_float[0][k][i];
          Pos_Min = i;

        }
      }

    }

    Serial.print("Min Value\n");
    Serial.print(Min);
    Serial.print(" ");
    Serial.print(Pos_Min);
    Serial.print("\nMax Value\n");
    Serial.print(Max);
    Serial.print(" ");
    Serial.print(Pos_Max);
    Serial.print("\n");

    counter = 0;
    Serial.print("Input Matrix norm\n");
    for (int i=0; i<128; i++){
      for (int k=0; k<6; k++){
        Input_Matrix_norm[0][k][i] = (2*(Input_Matrix_float[0][k][i]-Min)/(Max-Min))-1;
        Serial.print(Input_Matrix_norm[0][k][i]);
        Serial.print(" ");
      }
      Serial.print(counter);
      Serial.print("\n");
      counter += 1;
    }
    
    for (int i=0; i<128; i++){
      for (int k=0; k<6; k++){
        input->data.f[0,k,i] = Input_Matrix_norm[0][k][i];
      }
    }

    TfLiteStatus invoke_status = interpreter->Invoke();
    if (invoke_status != kTfLiteOk) {
      TF_LITE_REPORT_ERROR(error_reporter, "Invoke failed");
    return;
    }

    counter = 0;
    for (int i=0; i<128; i++){
      for (int k=0; k<6; k++){
        Output_Matrix_norm[0][k][i] = output->data.f[0,k,i];
        Serial.print(Output_Matrix_norm[0][k][i]);
        Serial.print(" ");
      }
      Serial.print(counter);
      Serial.print("\n");
      counter += 1;
    }

    for (int i=0; i<128; i++){
      for (int k=0; k<6; k++){
         Abs_Sum += sqrt(sq(Output_Matrix_norm[0][k][i]));
      }
    }

    MAE = Abs_Sum/(6*128);

    Serial.print("MAE is: ");
    Serial.print(MAE);
    Serial.print("\n");

    //Set all Arrays and Vars to 0
    for (int i=0; i<128; i++){
        for (int k=0; k<6; k++){
          Input_Matrix_float[0][k][i] = 0.0;
      }
    }

    for (int i=0; i<128; i++){
        for (int k=0; k<6; k++){
          Input_Matrix_norm[0][k][i] = 0.0;
      }
    }

    for (int i=0; i<128; i++){
        for (int k=0; k<6; k++){
          Output_Matrix_norm[0][k][i] = 0.0;
      }
    }

    Min = 0.0;
    Max = 0.0;
    Pos_Min = 0;
    Pos_Max = 0;
    counter = 0;
    Abs_Sum = 0.0;
    MAE = 0.0;
    Index = 0;

  }

delay(4);

}

And here is the serial output:

Input Matrix float
-0.62 0.31 9.56 -0.02 -0.01 0.01 0
-0.62 0.34 9.72 -0.02 -0.01 0.01 1
-0.58 0.30 9.66 -0.02 -0.02 0.00 2
-0.57 0.33 9.60 -0.02 -0.01 0.01 3
-0.58 0.22 9.76 -0.02 -0.01 0.00 4
-0.57 0.29 9.69 -0.02 -0.02 0.00 5
-0.64 0.34 9.68 -0.02 -0.01 0.01 6
-0.59 0.36 9.62 -0.02 -0.01 0.01 7
-0.56 0.29 9.72 -0.02 -0.01 0.01 8
-0.53 0.33 9.68 -0.02 -0.01 0.00 9
-0.62 0.25 9.72 -0.02 -0.02 0.01 10
-0.52 0.31 9.62 -0.03 -0.01 0.01 11
-0.63 0.31 9.70 -0.02 -0.01 0.01 12
-0.62 0.31 9.64 -0.03 -0.01 0.01 13
-0.62 0.32 9.72 -0.02 -0.01 0.00 14
-0.52 0.34 9.66 -0.02 -0.01 0.00 15
-0.55 0.35 9.70 -0.02 -0.02 0.01 16
-0.57 0.32 9.56 -0.02 -0.01 0.00 17
-0.63 0.36 9.68 -0.02 -0.01 0.01 18
-0.61 0.33 9.63 -0.02 -0.01 0.01 19
-0.63 0.31 9.66 -0.03 -0.01 0.01 20
-0.62 0.30 9.67 -0.02 -0.01 0.00 21
-0.56 0.27 9.68 -0.02 -0.01 0.01 22
-0.62 0.33 9.64 -0.02 -0.01 0.01 23
-0.53 0.28 9.65 -0.02 -0.01 0.01 24
-0.64 0.29 9.71 -0.02 -0.01 0.00 25
-0.59 0.32 9.61 -0.03 -0.02 0.00 26
-0.62 0.31 9.79 -0.02 -0.01 0.00 27
-0.55 0.29 9.70 -0.02 -0.01 0.01 28
-0.61 0.30 9.56 -0.02 -0.01 0.01 29
-0.60 0.38 9.63 -0.03 -0.02 0.01 30
-0.60 0.31 9.71 -0.02 -0.01 0.00 31
-0.61 0.34 9.72 -0.02 -0.01 0.01 32
-0.62 0.36 9.67 -0.02 -0.02 0.01 33
-0.59 0.37 9.59 -0.02 -0.01 0.00 34
-0.64 0.32 9.66 -0.02 -0.02 0.01 35
-0.54 0.32 9.74 -0.02 -0.01 0.00 36
-0.65 0.31 9.71 -0.03 -0.02 0.00 37
-0.59 0.28 9.66 -0.02 -0.01 0.01 38
-0.63 0.25 9.59 -0.02 -0.02 0.01 39
-0.55 0.31 9.65 -0.02 -0.01 0.01 40
-0.55 0.33 9.76 -0.02 -0.01 0.01 41
-0.58 0.33 9.71 -0.02 -0.02 0.01 42
-0.62 0.35 9.58 -0.03 -0.02 0.00 43
-0.56 0.35 9.58 -0.02 -0.02 0.01 44
-0.60 0.37 9.63 -0.02 -0.01 0.01 45
-0.59 0.29 9.72 -0.02 -0.01 0.01 46
-0.67 0.30 9.66 -0.02 -0.02 0.01 47
-0.60 0.29 9.57 -0.02 -0.02 0.00 48
-0.55 0.28 9.66 -0.02 -0.02 0.00 49
-0.62 0.31 9.61 -0.03 -0.02 0.01 50
-0.57 0.31 9.64 -0.02 -0.02 0.01 51
-0.63 0.34 9.74 -0.02 -0.01 0.00 52
-0.58 0.31 9.57 -0.02 -0.02 0.00 53
-0.56 0.35 9.71 -0.03 -0.01 0.00 54
-0.59 0.28 9.71 -0.02 -0.02 0.00 55
-0.62 0.34 9.75 -0.02 -0.01 0.01 56
-0.57 0.24 9.63 -0.02 -0.01 0.01 57
-0.54 0.33 9.64 -0.02 -0.01 0.00 58
-0.58 0.32 9.72 -0.02 -0.01 0.01 59
-0.52 0.27 9.61 -0.02 -0.01 0.00 60
-0.60 0.32 9.65 -0.03 -0.01 0.01 61
-0.62 0.29 9.60 -0.02 -0.01 0.00 62
-0.58 0.34 9.49 -0.02 -0.01 0.00 63
-0.61 0.33 9.72 -0.02 -0.01 0.00 64
-0.61 0.33 9.64 -0.02 -0.01 0.00 65
-0.56 0.29 9.69 -0.02 -0.01 0.00 66
-0.62 0.32 9.63 -0.03 -0.01 0.00 67
-0.63 0.30 9.67 -0.02 -0.02 0.01 68
-0.53 0.32 9.62 -0.02 -0.02 0.01 69
-0.58 0.33 9.72 -0.02 -0.02 0.01 70
-0.58 0.35 9.70 -0.03 -0.02 0.01 71
-0.62 0.34 9.66 -0.02 -0.02 0.01 72
-0.57 0.27 9.67 -0.02 -0.02 0.01 73
-0.56 0.31 9.60 -0.02 -0.02 0.01 74
-0.62 0.34 9.78 -0.03 -0.01 0.01 75
-0.58 0.30 9.71 -0.03 -0.02 0.01 76
-0.62 0.27 9.62 -0.02 -0.01 0.01 77
-0.61 0.29 9.67 -0.02 -0.02 0.01 78
-0.51 0.34 9.71 -0.02 -0.01 0.01 79
-0.55 0.28 9.64 -0.03 -0.02 0.01 80
-0.53 0.33 9.63 -0.03 -0.02 0.01 81
-0.53 0.27 9.66 -0.02 -0.01 0.01 82
-0.57 0.32 9.66 -0.02 -0.01 0.01 83
-0.64 0.32 9.60 -0.02 -0.01 0.00 84
-0.62 0.32 9.71 -0.03 -0.01 0.01 85
-0.63 0.28 9.58 -0.02 -0.02 0.01 86
-0.57 0.30 9.64 -0.02 -0.01 0.00 87
-0.60 0.32 9.69 -0.02 -0.01 0.01 88
-0.62 0.27 9.65 -0.02 -0.01 0.00 89
-0.62 0.29 9.69 -0.03 -0.01 0.01 90
-0.60 0.32 9.60 -0.02 -0.01 0.01 91
-0.62 0.35 9.64 -0.03 -0.01 0.00 92
-0.62 0.32 9.71 -0.03 -0.01 0.01 93
-0.56 0.31 9.65 -0.02 -0.02 0.01 94
-0.52 0.31 9.61 -0.02 -0.02 0.01 95
-0.65 0.32 9.66 -0.02 -0.02 0.00 96
-0.55 0.36 9.65 -0.02 -0.01 0.01 97
-0.54 0.32 9.63 -0.02 -0.01 0.01 98
-0.60 0.31 9.68 -0.02 -0.01 0.01 99
-0.58 0.38 9.68 -0.02 -0.01 0.01 100
-0.58 0.25 9.64 -0.02 -0.01 0.01 101
-0.62 0.31 9.67 -0.03 -0.02 0.00 102
-0.62 0.32 9.70 -0.03 -0.01 0.01 103
-0.57 0.30 9.63 -0.02 -0.02 0.01 104
-0.56 0.28 9.64 -0.02 -0.02 0.01 105
-0.61 0.29 9.68 -0.02 -0.01 0.01 106
-0.67 0.35 9.46 -0.02 -0.01 0.01 107
-0.58 0.27 9.64 -0.02 -0.01 0.00 108
-0.57 0.34 9.59 -0.03 -0.01 0.01 109
-0.49 0.33 9.65 -0.03 -0.01 0.01 110
-0.57 0.36 9.62 -0.02 -0.01 0.01 111
-0.59 0.28 9.71 -0.02 -0.01 0.01 112
-0.62 0.31 9.58 -0.02 -0.02 0.01 113
-0.57 0.39 9.56 -0.02 -0.02 0.00 114
-0.62 0.32 9.88 -0.02 -0.02 0.01 115
-0.63 0.37 9.66 -0.03 -0.02 0.01 116
-0.61 0.29 9.68 -0.02 -0.02 0.01 117
-0.60 0.31 9.72 -0.02 -0.02 0.01 118
-0.62 0.33 9.67 -0.02 -0.01 0.00 119
-0.55 0.35 9.71 -0.02 -0.01 0.01 120
-0.59 0.32 9.64 -0.03 -0.01 0.00 121
-0.54 0.34 9.65 -0.02 -0.01 0.01 122
-0.60 0.29 9.69 -0.02 -0.01 0.01 123
-0.58 0.30 9.64 -0.02 -0.02 0.01 124
-0.55 0.29 9.54 -0.02 -0.02 0.00 125
-0.54 0.28 9.59 -0.02 -0.01 0.01 126
-0.57 0.32 9.53 -0.02 -0.02 0.01 127
Min Value
-0.67 107
Max Value
9.88 115
Input Matrix norm
-0.99 -0.81 0.94 -0.88 -0.88 -0.87 0
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 1
-0.98 -0.82 0.96 -0.88 -0.88 -0.87 2
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 3
-0.98 -0.83 0.98 -0.88 -0.87 -0.87 4
-0.98 -0.82 0.96 -0.88 -0.88 -0.87 5
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 6
-0.99 -0.80 0.95 -0.88 -0.88 -0.87 7
-0.98 -0.82 0.97 -0.88 -0.87 -0.87 8
-0.97 -0.81 0.96 -0.88 -0.88 -0.87 9
-0.99 -0.82 0.97 -0.88 -0.88 -0.87 10
-0.97 -0.81 0.95 -0.88 -0.88 -0.87 11
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 12
-0.99 -0.81 0.95 -0.88 -0.87 -0.87 13
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 14
-0.97 -0.81 0.96 -0.88 -0.88 -0.87 15
-0.98 -0.81 0.96 -0.88 -0.88 -0.87 16
-0.98 -0.81 0.94 -0.88 -0.88 -0.87 17
-0.99 -0.80 0.96 -0.88 -0.87 -0.87 18
-0.99 -0.81 0.95 -0.88 -0.88 -0.87 19
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 20
-0.99 -0.82 0.96 -0.88 -0.87 -0.87 21
-0.98 -0.82 0.96 -0.88 -0.87 -0.87 22
-0.99 -0.81 0.95 -0.88 -0.88 -0.87 23
-0.97 -0.82 0.96 -0.88 -0.88 -0.87 24
-0.99 -0.82 0.97 -0.88 -0.87 -0.87 25
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 26
-0.99 -0.81 0.98 -0.88 -0.88 -0.87 27
-0.98 -0.82 0.97 -0.88 -0.88 -0.87 28
-0.99 -0.81 0.94 -0.88 -0.88 -0.87 29
-0.99 -0.80 0.95 -0.88 -0.88 -0.87 30
-0.99 -0.81 0.97 -0.88 -0.87 -0.87 31
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 32
-0.99 -0.80 0.96 -0.88 -0.88 -0.87 33
-0.98 -0.80 0.94 -0.88 -0.87 -0.87 34
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 35
-0.97 -0.81 0.97 -0.88 -0.88 -0.87 36
-1.00 -0.81 0.97 -0.88 -0.88 -0.87 37
-0.98 -0.82 0.96 -0.88 -0.88 -0.87 38
-0.99 -0.82 0.94 -0.88 -0.88 -0.87 39
-0.98 -0.81 0.96 -0.88 -0.87 -0.87 40
-0.98 -0.81 0.98 -0.88 -0.88 -0.87 41
-0.98 -0.81 0.97 -0.88 -0.88 -0.87 42
-0.99 -0.81 0.94 -0.88 -0.88 -0.87 43
-0.98 -0.81 0.94 -0.88 -0.88 -0.87 44
-0.99 -0.80 0.95 -0.88 -0.87 -0.87 45
-0.98 -0.82 0.97 -0.88 -0.88 -0.87 46
-1.00 -0.81 0.96 -0.88 -0.88 -0.87 47
-0.99 -0.82 0.94 -0.88 -0.88 -0.87 48
-0.98 -0.82 0.96 -0.88 -0.88 -0.87 49
-0.99 -0.81 0.95 -0.88 -0.88 -0.87 50
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 51
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 52
-0.98 -0.81 0.94 -0.88 -0.88 -0.87 53
-0.98 -0.81 0.97 -0.88 -0.88 -0.87 54
-0.98 -0.82 0.97 -0.88 -0.88 -0.87 55
-0.99 -0.81 0.98 -0.88 -0.88 -0.87 56
-0.98 -0.83 0.95 -0.88 -0.87 -0.87 57
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 58
-0.98 -0.81 0.97 -0.88 -0.88 -0.87 59
-0.97 -0.82 0.95 -0.88 -0.88 -0.87 60
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 61
-0.99 -0.82 0.95 -0.88 -0.88 -0.87 62
-0.98 -0.81 0.93 -0.88 -0.88 -0.87 63
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 64
-0.99 -0.81 0.95 -0.88 -0.87 -0.87 65
-0.98 -0.82 0.96 -0.88 -0.87 -0.87 66
-0.99 -0.81 0.95 -0.88 -0.87 -0.87 67
-0.99 -0.82 0.96 -0.88 -0.88 -0.87 68
-0.97 -0.81 0.95 -0.88 -0.88 -0.87 69
-0.98 -0.81 0.97 -0.88 -0.88 -0.87 70
-0.98 -0.81 0.97 -0.88 -0.88 -0.87 71
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 72
-0.98 -0.82 0.96 -0.88 -0.88 -0.87 73
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 74
-0.99 -0.81 0.98 -0.88 -0.88 -0.87 75
-0.98 -0.82 0.97 -0.88 -0.88 -0.87 76
-0.99 -0.82 0.95 -0.88 -0.87 -0.87 77
-0.99 -0.82 0.96 -0.88 -0.88 -0.87 78
-0.97 -0.81 0.97 -0.88 -0.87 -0.87 79
-0.98 -0.82 0.95 -0.88 -0.88 -0.87 80
-0.97 -0.81 0.95 -0.88 -0.88 -0.87 81
-0.97 -0.82 0.96 -0.88 -0.88 -0.87 82
-0.98 -0.81 0.96 -0.88 -0.88 -0.87 83
-0.99 -0.81 0.95 -0.88 -0.88 -0.87 84
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 85
-0.99 -0.82 0.94 -0.88 -0.88 -0.87 86
-0.98 -0.82 0.95 -0.88 -0.88 -0.87 87
-0.99 -0.81 0.96 -0.88 -0.87 -0.87 88
-0.99 -0.82 0.96 -0.88 -0.88 -0.87 89
-0.99 -0.82 0.96 -0.88 -0.87 -0.87 90
-0.99 -0.81 0.95 -0.88 -0.88 -0.87 91
-0.99 -0.81 0.95 -0.88 -0.87 -0.87 92
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 93
-0.98 -0.81 0.96 -0.88 -0.88 -0.87 94
-0.97 -0.81 0.95 -0.88 -0.88 -0.87 95
-1.00 -0.81 0.96 -0.88 -0.88 -0.87 96
-0.98 -0.80 0.96 -0.88 -0.88 -0.87 97
-0.97 -0.81 0.95 -0.88 -0.88 -0.87 98
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 99
-0.98 -0.80 0.96 -0.88 -0.88 -0.87 100
-0.98 -0.82 0.95 -0.88 -0.87 -0.87 101
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 102
-0.99 -0.81 0.96 -0.88 -0.88 -0.87 103
-0.98 -0.82 0.95 -0.88 -0.88 -0.87 104
-0.98 -0.82 0.95 -0.88 -0.88 -0.87 105
-0.99 -0.82 0.96 -0.88 -0.88 -0.87 106
-1.00 -0.81 0.92 -0.88 -0.88 -0.87 107
-0.98 -0.82 0.95 -0.88 -0.87 -0.87 108
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 109
-0.97 -0.81 0.96 -0.88 -0.87 -0.87 110
-0.98 -0.80 0.95 -0.88 -0.88 -0.87 111
-0.98 -0.82 0.97 -0.88 -0.88 -0.87 112
-0.99 -0.81 0.94 -0.88 -0.88 -0.87 113
-0.98 -0.80 0.94 -0.88 -0.88 -0.87 114
-0.99 -0.81 1.00 -0.88 -0.88 -0.87 115
-0.99 -0.80 0.96 -0.88 -0.88 -0.87 116
-0.99 -0.82 0.96 -0.88 -0.88 -0.87 117
-0.99 -0.81 0.97 -0.88 -0.88 -0.87 118
-0.99 -0.81 0.96 -0.88 -0.87 -0.87 119
-0.98 -0.81 0.97 -0.88 -0.88 -0.87 120
-0.98 -0.81 0.95 -0.88 -0.88 -0.87 121
-0.97 -0.81 0.96 -0.88 -0.88 -0.87 122
-0.99 -0.82 0.96 -0.88 -0.88 -0.87 123
-0.98 -0.82 0.95 -0.88 -0.88 -0.87 124
-0.98 -0.82 0.93 -0.88 -0.88 -0.87 125
-0.98 -0.82 0.94 -0.88 -0.88 -0.87 126
-0.98 -0.81 0.93 -0.88 -0.88 -0.87 127
nan nan nan nan nan nan 0
nan nan nan nan nan nan 1
nan nan nan nan nan nan 2
nan nan nan nan nan nan 3
nan nan nan nan nan nan 4
nan nan nan nan nan nan 5
nan nan nan nan nan nan 6
nan nan nan nan nan nan 7
nan nan nan nan nan nan 8
nan nan nan nan nan nan 9
nan nan nan nan nan nan 10
nan nan nan nan nan nan 11
nan nan nan nan nan nan 12
nan nan nan nan nan nan 13
nan nan nan nan nan nan 14
nan nan nan nan nan nan 15
nan nan nan nan nan nan 16
nan nan nan nan nan nan 17
nan nan nan nan nan nan 18
nan nan nan nan nan nan 19
nan nan nan nan nan nan 20
nan nan nan nan nan nan 21
nan nan nan nan nan nan 22
nan nan nan nan nan nan 23
nan nan nan nan nan nan 24
nan nan nan nan nan nan 25
nan nan nan nan nan nan 26
nan nan nan nan nan nan 27
nan nan nan nan nan nan 28
nan nan nan nan nan nan 29
nan nan nan nan nan nan 30
nan nan nan nan nan nan 31
nan nan nan nan nan nan 32
nan nan nan nan nan nan 33
nan nan nan nan nan nan 34
nan nan nan nan nan nan 35
nan nan nan nan nan nan 36
nan nan nan nan nan nan 37
nan nan nan nan nan nan 38
nan nan nan nan nan nan 39
nan nan nan nan nan nan 40
nan nan nan nan nan nan 41
nan nan nan nan nan nan 42
nan nan nan nan nan nan 43
nan nan nan nan nan nan 44
nan nan nan nan nan nan 45
nan nan nan nan nan nan 46
nan nan nan nan nan nan 47
nan nan nan nan nan nan 48
nan nan nan nan nan nan 49
nan nan nan nan nan nan 50
nan nan nan nan nan nan 51
nan nan nan nan nan nan 52
nan nan nan nan nan nan 53
nan nan nan nan nan nan 54
nan nan nan nan nan nan 55
nan nan nan nan nan nan 56
nan nan nan nan nan nan 57
nan nan nan nan nan nan 58
nan nan nan nan nan nan 59
nan nan nan nan nan nan 60
nan nan nan nan nan nan 61
nan nan nan nan nan nan 62
nan nan nan nan nan nan 63
nan nan nan nan nan nan 64
nan nan nan nan nan nan 65
nan nan nan nan nan nan 66
nan nan nan nan nan nan 67
nan nan nan nan nan nan 68
nan nan nan nan nan nan 69
nan nan nan nan nan nan 70
nan nan nan nan nan nan 71
nan nan nan nan nan nan 72
nan nan nan nan nan nan 73
nan nan nan nan nan nan 74
nan nan nan nan nan nan 75
nan nan nan nan nan nan 76
nan nan nan nan nan nan 77
nan nan nan nan nan nan 78
nan nan nan nan nan nan 79
nan nan nan nan nan nan 80
nan nan nan nan nan nan 81
nan nan nan nan nan nan 82
nan nan nan nan nan nan 83
nan nan nan nan nan nan 84
nan nan nan nan nan nan 85
nan nan nan nan nan nan 86
nan nan nan nan nan nan 87
nan nan nan nan nan nan 88
nan nan nan nan nan nan 89
nan nan nan nan nan nan 90
nan nan nan nan nan nan 91
nan nan nan nan nan nan 92
nan nan nan nan nan nan 93
nan nan nan nan nan nan 94
nan nan nan nan nan nan 95
nan nan nan nan nan nan 96
nan nan nan nan nan nan 97
nan nan nan nan nan nan 98
nan nan nan nan nan nan 99
nan nan nan nan nan nan 100
nan nan nan nan nan nan 101
nan nan nan nan nan nan 102
nan nan nan nan nan nan 103
nan nan nan nan nan nan 104
nan nan nan nan nan nan 105
nan nan nan nan nan nan 106
nan nan nan nan nan nan 107
nan nan nan nan nan nan 108
nan nan nan nan nan nan 109
nan nan nan nan nan nan 110
nan nan nan nan nan nan 111
nan nan nan nan nan nan 112
nan nan nan nan nan nan 113
nan nan nan nan nan nan 114
nan nan nan nan nan nan 115
nan nan nan nan nan nan 116
nan nan nan nan nan nan 117
nan nan nan nan nan nan 118
nan nan nan nan nan nan 119
nan nan nan nan nan nan 120
nan nan nan nan nan nan 121
nan nan nan nan nan nan 122
nan nan nan nan nan nan 123
nan nan nan nan nan nan 124
nan nan nan nan nan nan 125
nan nan nan nan nan nan 126
nan nan nan nan nan nan 127
MAE is: nan

I’m not an expert here but every time I had a similar issue with a TFLite model, what helped me was to have the python code, with the exact same model, working fine and giving the expected results.

With that, you make sure the model is doing it’s work and if so you can debug your code around it separately.

hope it helps

1 Like

i am having the same problem, did you find the solution?