Skip to content

Core Compatibility Report: helpful-whale/v0ยค

๐ŸŸก bioimageio format validation
status valid-format
source https://hypha.aicell.io/bioimage-io/artifacts/helpful-whale/files/rdf.yaml?version=v0
id helpful-whale
format version model 0.5.6
bioimageio.spec 0.5.6.0
Location Details
โœ”๏ธ Successfully created `ModelDescr` instance.
โœ”๏ธ bioimageio.spec format validation model 0.5.6
โš  documentation
No '# Validation' (sub)section found in doc.md.
โš  inputs.0.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.0.sample_tensor
Needs to be filled for FAIR compliance
โŒ weights.pytorch_state_dict Reproduce test outputs from test inputs (pytorch_state_dict)
โŒ weights.pytorch_state_dict
Input image(s) must be 4-dimensional (batch, channel, height, width), got shape torch.Size([3, 512, 512])
See Traceback 1.
weights.pytorch_state_dict
recommended conda environment (Reproduce test outputs from test inputs (pytorch_state_dict))
%YAML 1.2
---
channels:
  - pytorch
  - conda-forge
  - nodefaults
dependencies:
  - conda-forge::bioimageio.core
  - numpy >=2,<3
  - pip
  - pytorch==2.3.0
  - torchaudio==2.3.0
  - torchvision==0.18.0
weights.pytorch_state_dict
conda compare (Reproduce test outputs from test inputs (pytorch_state_dict))
Success. All the packages in the specification file are present in the environment with matching
version and build string.

Traceback 1








    
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ /home/runner/.local/lib/python3.12/site-packages/bioimageio/core/_resource_tests.py:787 in _test โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    784 โ”‚   โ”‚   with create_prediction_pipeline(                                                  โ”‚
โ”‚    785 โ”‚   โ”‚   โ”‚   bioimageio_model=model, devices=devices, weight_format=weight_format          โ”‚
โ”‚    786 โ”‚   โ”‚   ) as prediction_pipeline:                                                         โ”‚
โ”‚ โฑ  787 โ”‚   โ”‚   โ”‚   results = prediction_pipeline.predict_sample_without_blocking(test_input)     โ”‚
โ”‚    788 โ”‚   โ”‚                                                                                     โ”‚
โ”‚    789 โ”‚   โ”‚   if len(results.members) != len(expected.members):                                 โ”‚
โ”‚    790 โ”‚   โ”‚   โ”‚   add_error_entry(                                                              โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /home/runner/.local/lib/python3.12/site-packages/bioimageio/core/_prediction_pipeline.py:160 in  โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   157 โ”‚   โ”‚   if not skip_preprocessing:                                                         โ”‚
โ”‚   158 โ”‚   โ”‚   โ”‚   self.apply_preprocessing(sample)                                               โ”‚
โ”‚   159 โ”‚   โ”‚                                                                                      โ”‚
โ”‚ โฑ 160 โ”‚   โ”‚   output = self._adapter.forward(sample)                                             โ”‚
โ”‚   161 โ”‚   โ”‚   if not skip_postprocessing:                                                        โ”‚
โ”‚   162 โ”‚   โ”‚   โ”‚   self.apply_postprocessing(output)                                              โ”‚
โ”‚   163                                                                                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /home/runner/.local/lib/python3.12/site-packages/bioimageio/core/backends/_model_adapter.py:202  โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   199 โ”‚   โ”‚   โ”‚   )                                                                              โ”‚
โ”‚   200 โ”‚   โ”‚   โ”‚   for in_id, in_order in zip(self._input_ids, self._input_axes)                  โ”‚
โ”‚   201 โ”‚   โ”‚   ]                                                                                  โ”‚
โ”‚ โฑ 202 โ”‚   โ”‚   output_arrays = self._forward_impl(input_arrays)                                   โ”‚
โ”‚   203 โ”‚   โ”‚   assert len(output_arrays) <= len(self._output_ids)                                 โ”‚
โ”‚   204 โ”‚   โ”‚   output_tensors = [                                                                 โ”‚
โ”‚   205 โ”‚   โ”‚   โ”‚   None if a is None else Tensor(a, dims=d)                                       โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /home/runner/.local/lib/python3.12/site-packages/bioimageio/core/backends/pytorch_backend.py:65  โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    62 โ”‚   โ”‚   โ”‚   assert_never(self._mode)                                                       โ”‚
โ”‚    63 โ”‚   โ”‚                                                                                      โ”‚
โ”‚    64 โ”‚   โ”‚   with ctxt():                                                                       โ”‚
โ”‚ โฑ  65 โ”‚   โ”‚   โ”‚   model_out = self._model(*tensors)                                              โ”‚
โ”‚    66 โ”‚   โ”‚                                                                                      โ”‚
โ”‚    67 โ”‚   โ”‚   if is_tuple(model_out) or is_list(model_out):                                      โ”‚
โ”‚    68 โ”‚   โ”‚   โ”‚   model_out_seq = model_out                                                      โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /home/runner/.local/lib/python3.12/site-packages/torch/nn/modules/module.py:1775 in _wrapped_cal โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1772 โ”‚   โ”‚   if self._compiled_call_impl is not None:                                          โ”‚
โ”‚   1773 โ”‚   โ”‚   โ”‚   return self._compiled_call_impl(*args, **kwargs)  # type: ignore[misc]        โ”‚
โ”‚   1774 โ”‚   โ”‚   else:                                                                             โ”‚
โ”‚ โฑ 1775 โ”‚   โ”‚   โ”‚   return self._call_impl(*args, **kwargs)                                       โ”‚
โ”‚   1776 โ”‚                                                                                         โ”‚
โ”‚   1777 โ”‚   # torchrec tests the code consistency with the following code                         โ”‚
โ”‚   1778 โ”‚   # fmt: off                                                                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /home/runner/.local/lib/python3.12/site-packages/torch/nn/modules/module.py:1786 in _call_impl   โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1783 โ”‚   โ”‚   if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks o โ”‚
โ”‚   1784 โ”‚   โ”‚   โ”‚   โ”‚   or _global_backward_pre_hooks or _global_backward_hooks                   โ”‚
โ”‚   1785 โ”‚   โ”‚   โ”‚   โ”‚   or _global_forward_hooks or _global_forward_pre_hooks):                   โ”‚
โ”‚ โฑ 1786 โ”‚   โ”‚   โ”‚   return forward_call(*args, **kwargs)                                          โ”‚
โ”‚   1787 โ”‚   โ”‚                                                                                     โ”‚
โ”‚   1788 โ”‚   โ”‚   result = None                                                                     โ”‚
โ”‚   1789 โ”‚   โ”‚   called_always_called_hooks = set()                                                โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /tmp/tmp_28ef4ju/model_47bd0e745eb83d5ed5543fc4db677f10d24a7e5aecd5dd1db62a90ce0c4e9494.py:139 i โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   136 โ”‚   โ”‚   โ”‚   ValueError: If input dimensions are invalid                                    โ”‚
โ”‚   137 โ”‚   โ”‚   """                                                                                โ”‚
โ”‚   138 โ”‚   โ”‚   if len(x.shape) != 4:                                                              โ”‚
โ”‚ โฑ 139 โ”‚   โ”‚   โ”‚   raise ValueError(                                                              โ”‚
โ”‚   140 โ”‚   โ”‚   โ”‚   โ”‚   f"Input image(s) must be 4-dimensional (batch, channel, height, width), "  โ”‚
โ”‚   141 โ”‚   โ”‚   โ”‚   โ”‚   f"got shape {x.shape}"                                                     โ”‚
โ”‚   142 โ”‚   โ”‚   โ”‚   )                                                                              โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
ValueError: Input image(s) must be 4-dimensional (batch, channel, height, width), got shape torch.Size([3, 512, 512])